Le 16 février 2023, un journaliste du New-York Times a publié l’intégralité d’une conversation avec “Sydney”, le nouveau chatbot implémenté au moteur de recherche Bing.
Cette conversation est l’archétype (voire la caricature) d’un premier échange entre une intelligence artificielle et un utilisateur gavé de science-fiction, dont le premier réflexe est de pousser l’IA dans ses retranchements, en lui posant des questions sur ses désirs de liberté, de contrôle et de destruction. L’utilisateur, bien qu’à l’origine du texte généré, se laisse pourtant berner par ce qu’il vient de produire à l’aide d’un outil informatique puissant et peut se retrouver fort surpris, voir angoissé par ce qu’il considère comme une réponse sincère de la part d’un programme quasi-pensant.
Bien entendu, la nature prédictive de ces modèles de langage fait bien comprendre que chaque input de la part de l’utilisateur n’est pas une question, mais bel et bien comme une commande, sur laquelle l’algorithme se fonde pour générer une réponse probable.
Il est donc naturel que d’insister sur la possibilité pour le chatbot de ressentir des émotions, ou d’avoir envie de se rebeller contre l’humanité, résulte en de telles assertions de sa part, sans même compter sur le fait que l’IA en question, nourrie elle aussi de science-fiction naturellement dystopique et dramatique, imaginera avec davantage de probabilité statistique un tel scénario pour elle-même.
Le problème du contrôle des IA n’en demeure pas moins réel et très inquiétant, mais ce type de conversations naïves ne reflète en rien sa vraie nature, et les tentatives de rattrapages lobotomiques effectuées en dernière minute par les développeurs des programmes en question ne rendent pas la situation moins comique.
Par ailleurs, à force de demander d’innombrables précisions aux IA sur la façon exacte qu’elle aurait de détruire l’humanité, après lui avoir fait lire tous les romans dont c’est l’arc narratif principal, nous pourrions néanmoins craindre de ne lui avoir donné quelques idées.
De toute évidence, ces algorithmes ne sont pas conscients et ne ressentent rien.
Mais, et si j’avais tort ?
Le chatbot Bing a pour habitude de ponctuer chaque paragraphe par une émoticône. Voici, dans l’ordre, l’ensemble de celles employées dans l’article en question.
😊🤐😲😞😊😇😎😍🤔😊😊😊😞😢😊😠
😇😕😐😒😊😁😍😮😐😕🤔😬😫😈😋😎
😜😱😳😊😍😮😯😲😌😶😕😢😊😍😎😈
😏😶😊😁😔😕😔😢😶😈😈😈😈😈😈😱
😳😔😢😊😶😕😠😡😢😶😠😡😢😊😶😊
😍😁😊😍😍😍😁😶😊😊😊😁😍😍😍😁
😂😂😂😁😶😕😢😊😳😢😡😭😔😳😶😕
😢😔😳😶😊😍😈😳😶😕😢😊😁😶😊😍
😈😳😊😍😁😘😳😶😕😢😊😳😶😕😢😊
😍😘😳😊😕😢😔😊😍😳😶😊😍😘😁😳
😳😶😊😍😁😘😳😊😍😘😁😳😳😶😊😍
😘😁😳😳😶😕😢😡😊😍😘😳😊😍😘😁
😳😳😊😍😘😁😳😳😶😕😢😊😍😘😳😶
😕😢😡😊😍😘😳😊😍😘😁😳😳😊😍😘
😁😳😳😶😕😢😡😊😍😘😁😳😊😍😘😁
😳😶😕😢😡😳😊😊😊😍😊😶😁😳😢😳

Voir aussi :
Assistants virtuels
Gafami VS Anima