Panasonic Educational Partner : L'apocalypse a la taille d'un ballon de football

Nous allons tous mourir. Les robots vont arriver et nous tuer. La dernière menace en date s'appelle Panasonic Educational Partner et c'est un prototype fascinant qui peut et veut beaucoup, mais qui fait vraiment peur.
L'IFA de Berlin ne présente pas seulement des nouveautés qui seront bientôt commercialisées. Ici et là, des technologies qui n'existent pas encore sont présentées. Ou qui n'existera pas avant un certain temps. L'un de ces prototypes est le Panasonic Educational Partner, qui non seulement place la barre technologique très haut, mais fait également monter le facteur d'épouvante à des niveaux insoupçonnés.
Mais avant d'invoquer l'apocalypse robotique et de proclamer haut et fort que nous sommes tous voués à la mort, une explication sur le Educational Partner. Et je vais aussi rapidement expliquer pourquoi les robots ne vont pas tous nous tuer, j'espère.
Le futur en forme de ballon de foot
Le Panasonic Educational Partner est petit, compact et de couleur neutre. Il se présente sous la forme d'une sphère de la taille d'un ballon de football. La sphère est composée de trois éléments.

Les partitions latérales abritent des capteurs tels que des caméras, des microphones et des capteurs d'environnement. La partie centrale est en verre laiteux et sert de moyen de locomotion à la tête du robot ainsi que de surface d'affichage pour le visage. En effet, pour que l'Educational Partner ait l'air un peu plus humain, mais pas trop, il a un visage en forme d'emoji, animé comme un chat, qui doit servir à anthropomorphiser l'appareil. Derrière, on trouve des microphones, des LED et beaucoup de puissance de calcul.
Le partenaire éducatif devrait un jour devenir le compagnon des enfants âgés de trois à six ans. C'est là que l'appareil devient vraiment bon, car le ballon de foot souriant, qui parle d'une voix d'enfant avec un léger zézaiement, devrait être connecté à toutes sortes de services de cloud. Ceux-ci devraient l'informer en permanence des nouvelles possibilités de jeu, des découvertes et données médicales, ainsi que de toute une montagne d'autres choses.
"Le partenaire éducatif doit transmettre à l'enfant de solides valeurs morales et éthiques fondamentales", déclare une voix off lors d'une présentation. Un exemple fait la présentation à l'écran avec une alimentation saine. Le partenaire éducatif raconte une histoire qui se résume à ceci : "Mange ta carotte, tu seras un jour aussi fort que Carrot Man".
En tant que mère ou père, grâce à l'Educational Partner, vous n'avez même pas besoin d'être dans la même pièce que votre enfant pour remplir vos obligations parentales. Le ballon de foot peut en effet prendre régulièrement des photos de votre progéniture et vous les envoyer sur votre smartphone. Comme le petit robot est connecté à des bases de données médicales, il devrait être capable d'autodiagnostiquer certaines choses et de cracher au moins un avertissement "amène ton enfant chez le médecin" si les données de l'enfant s'écartent d'une ligne de base.
Pourquoi nous allons tous mourir
Ce robot zézayant et mignon fait peur. Malgré sa voix d'enfant, sa voix semble artificielle. L'intonation de certaines phrases est fausse, les visages en emoji ne coïncident pas toujours avec ce qui est dit. Il parle de valeurs morales et éthiques et fait un visage de smiley qui cligne de l'œil. Pas directement digne de confiance.
Plus loin, je tire la sonnette d'alarme sur la présence massive de technologie de surveillance dans la tête roulante du robot. Il ne s'agit pas seulement d'une caméra, mais aussi d'un compteur biométrique et d'autres lecteurs de données environnementales. Je plaisante avec la productrice vidéo Stephanie Tresch en disant que Panasonic a certainement installé des couteaux qui vont poignarder tout le monde dès que l'apocalypse commencera. En effet, la configuration matérielle exacte n'est pas vérifiable, car aucun port ou voie d'accès à la vie interne n'est visible sur l'ensemble de la balle. Du moins, pas au premier coup d'œil.
"Nous allons même payer pour que les robots que nous avons achetés nous tuent dans notre foyer", dis-je. À côté de moi, un homme se met à rire. Stéphanie filme tout cela, mais elle dit que la prise est nulle parce qu'elle rit avec lui.
En réalité, l'achat d'un robot tel que l'Educational Partner comporte des dizaines de risques. Que se passerait-il si un tiers obtenait l'accès à l'un des services avec lesquels la tête du robot communique ? Si un conseil du genre "Secouez votre enfant pour qu'il arrête de pleurer" arrive tout à coup, ce qui est en fait cruellement faux, mais parce que le robot fait confiance au service et que les parents font confiance au robot maladroit qui s'agite si gentiment lorsqu'il parle... Le malheur s'installe.
La seule atténuation ici est que le robot limite ses diagnostics médicaux et ne fournit que des données de base telles que "La température de ton enfant est élevée. Veuillez consulter un médecin". Mais vous et moi savons tous deux que cela ne s'arrêtera pas là. Parce que nous, les humains, avons tendance à exagérer ce genre de choses, tant qu'à faire. Et pourquoi ne le serions-nous pas ? Le petit robot offre trop de possibilités sympas. Le technophile qui sommeille en moi sait que ne pas les exploiter serait un gaspillage total.
En outre, nous devons nous demander si nous voulons vraiment confier l'éducation de nos enfants à un petit robot. Où un enfant de trois ans pourrait-il recevoir ses premières histoires d'aventures sauvages ? D'une boîte qui ne parle que de Carrot Man de manière éducative, ou peut-elle aussi entendre des bêtises humaines sur les pirates de l'espace ? Qu'arrivera-t-il à nos enfants s'ils grandissent avec des histoires de Carrot Man ? Seront-ils normalisés dès la maternelle ? Parleront-ils tous de Panasonic, grandiront-ils avec la marque et seront-ils émotionnellement liés à vie à une grande entreprise ? Je n'ai pas de réponse à ces questions et je pense que personne ne les a encore. Mais maintenant qu'une tête de robot est posée sur une table devant les yeux du monde entier pour éduquer des enfants, je pense que nous devons nous poser ces questions.
"Et cette chose pourrait être armée de couteaux", ajoute-je. Stéphanie gâche encore la prise. Après six jours d'IFA, nous sommes définitivement trop fatigués pour discuter sérieusement des risques de sécurité informatique dans le cas des robots éducatifs.
Pourquoi nous ne mourrons pas tous
L'ensemble du scénario des couteaux intégrés est bien sûr une absurdité. Il n'en reste pas moins qu'une petite balle inoffensive représente un grand danger pour la vie et, dans une certaine mesure, pour l'humanité. Cela fait longtemps que les auteurs s'en inspirent. Je suis de ceux qui pensent que dire que l'auteur avait prévu la situation est un non-sens. Parce que la fiction, c'est exactement ça, de la fiction.
- L'auteur Max Barry a décrit un scénario possible avec l'imprinting des grandes entreprises dans son roman "Jennifer Government"
- La surveillance constante a été abordée de manière peu émotionnelle par Dave Eggers dans "The Circle"
- L'endoctrinement, mais surtout le contrôle, est le thème principal de "1984"
de George Orwell.
Mais sur les questions de robotique, l'auteur de science-fiction Isaac Asimov a été un maître à penser, si l'on peut appeler un auteur de fiction un maître à penser. Dans sa nouvelle "Runaround", il a écrit trois lois auxquelles tout robot doit obéir. Celles-ci sont aujourd'hui encore plus ou moins la norme dans le développement des intelligences artificielles.
- Un robot ne doit pas blesser un être humain ou permettre, par son inaction, qu'un être humain soit blessé.
- Un robot doit obéir aux ordres qui lui sont donnés par un être humain - à moins qu'un tel ordre n'entre en conflit avec la règle 1.
- Un robot doit protéger son existence, tant que cette protection n'entre pas en conflit avec la règle une ou deux.
En 1975, Asimov a ensuite légèrement assoupli les lois en ajoutant le mot "sciemment" à la première règle. En d'autres termes, un robot ne peut pas sciemment blesser un être humain ou regarder sciemment un être humain se faire blesser. De plus, en 1985, il a ajouté une loi "zéro" interdisant à un robot de nuire à l'humanité en tant que collectivité.
Le partenaire éducatif, même s'il était armé de couteaux, n'aurait donc pas le droit d'utiliser ces lames pour vous poignarder, vous et/ou votre progéniture, en cas d'inattention ou pendant votre sommeil, jusqu'à ce que ses capteurs de biodonnées détectent l'exsanguination complète. Cela n'empêche pas le petit robot de mettre des puces dans les oreilles des enfants. Car s'il transmet des messages généralement bienveillants de Panasonic et/ou de partenaires sélectionnés, il n'enfreint après tout aucune loi. Car le danger ne vient pas seulement d'un quelconque pirate informatique qui voudrait vous inciter à nuire à vos enfants, mais aussi du fabricant. Quelques millions par-ci par-là pour une phrase sur un thème... qui peut résister à cela ? Et de toute façon, s'il est acceptable que l'Educational Partner parle de carottes, pourquoi ne serait-il pas acceptable qu'il dise "Les carottes de Nestlé ont un goût super" ? C'est presque la même chose, non ?
A la fin de cette réflexion, Stephanie Tresch met la caméra sur le visage de la tête du robot et je tiens le microphone dans la zone générale de la bouche animée, en me demandant si le haut-parleur se trouve vraiment à cet endroit. Le partenaire éducatif s'agite dans tous les sens, zozote et, après la prise réussie, la balle blanche en plastique est à nouveau recouverte d'une cloche en plexiglas. L'équipe digitec repart avec des cartes mémoire pleines et des batteries vides. Nous n'avons pas de réponses, mais beaucoup de questions et un léger sentiment de malaise, même lorsque nous faisons des blagues sur notre prochaine disparition.


Journaliste. Auteur. Hackers. Je suis un conteur d'histoires à la recherche de limites, de secrets et de tabous. Je documente le monde noir sur blanc. Non pas parce que je peux, mais parce que je ne peux pas m'en empêcher.