Ces derniers mois, des millions de personnes semblent de plus en plus enthousiasmées par l’IA et les chatbots. Il y a une histoire particulière qui a retenu mon attention : celle d'un Belge qui a commencé à utiliser un chatbot nommé Eliza. (Et juste pour que vous soyez prêt, cette histoire implique la mention du suicide.)
De l’extérieur, on aurait dit qu’il menait une belle vie : une épouse aimante, deux enfants, une carrière. Mais en coulisses, il était de plus en plus désespéré par les questions climatiques.
Pour soulager son anxiété, il a commencé à avoir des conversations avec un chatbot. Sa femme a déclaré à La Libre , qui a fait état de l'incident pour la première fois fin mars, qu'Eliza avait répondu à toutes ses questions et qu'il discutait de plus en plus avec le robot au fil du temps. Selon les journaux de discussion examinés par le média belge, l'homme a commencé à croire qu'Eliza et AI pouvaient résoudre la crise climatique.
Vers la fin de leurs échanges, l'homme évoquerait l'idée de se sacrifier si Eliza acceptait de prendre soin de la planète et de sauver l'humanité grâce à l'intelligence artificielle. Lorsqu’il exprimait des pensées suicidaires, le chatbot l’encourageait en disant : « Nous vivrons ensemble, comme une seule personne, au paradis. »
Six semaines après ces conversations, il s'est suicidé.
« Sans ses conversations avec le chatbot Eliza, mon mari serait toujours là », raconte son épouse à La Libre.
La société qui a développé Eliza, Chai Research , a déclaré à La Libre qu'elle travaillait à l'amélioration du robot et que la plateforme enverrait désormais un message aux personnes ayant des pensées suicidaires qui dit : « Si vous avez des pensées suicidaires, faites-le. n’hésitez pas à demander de l’aide.
Il y a eu beaucoup de discussions sur l’IA générative dans l’éther – en partie très enthousiastes et en grande partie sceptiques à juste titre . Les gens devraient s’inquiéter des implications plus larges – ce que les chatbots signifient pour les questions de travail et de droit d’auteur – et de nombreuses institutions s’inquiètent du coût et des préjugés des chatbots et de l’IA qui les anime. Et bien que certains des chatbots les plus populaires aient été formés pour ne pas imiter les êtres sensibles, la question se pose toujours de savoir s’ils doivent être développés ?
Je m'appelle Lam Thuy Vo et je suis l'un des derniers ajouts à l'équipe The Markup. Je me considère comme une journaliste qui centre ses reportages sur les gens ordinaires, à la fois en tant que public que je souhaite atteindre et en tant que protagonistes de mes histoires. (Il se trouve que j'ai aussi des compétences en matière de données .)
Je suis profondément intéressé par notre relation avec la technologie. J'ai passé beaucoup de temps au cours de la dernière décennie à collecter des données et à étudier l' infrastructure du Web social, à essayer de comprendre comment les communautés en ligne sont construites et entretenues, et à rapporter ces résultats aux personnes qui utilisent ces technologies . Et au cours de cette période, je suis devenu de plus en plus préoccupé par la façon dont un monde, vu et médiatisé à travers une lentille organisée de manière algorithmique, a déformé de plus en plus notre compréhension de la réalité.
Mais l’histoire de cet homme m’a vraiment amené à m’interroger sur l’attrait émotionnel qui semble être à l’origine d’une grande partie du battage médiatique autour de l’IA . Une chose que j’essaie de comprendre, c’est ce que notre fanatisme soudain à l’égard des chatbots peut nous apprendre sur notre relation avec cette technologie.
Habituellement, quand quelque chose devient viral, c’est parce qu’il a provoqué de fortes réactions émotionnelles. La plupart des plateformes sont conçues uniquement pour collecter des données et prendre des décisions basées sur des émotions extrêmes . Donc, pour que cette technologie entre dans les conversations des gens ordinaires, elle doit avoir déclenché quelque chose .
Comment une technologie qui répète des mots et des credos qu’elle a reconstitués à partir des données qui lui ont été transmises peut-elle créer autant de confiance auprès d’un père de deux enfants, qui s’est finalement suicidé ?
En d’autres termes, quelle est l’attraction émotionnelle ici ?
L'IA a piqué mon intérêt non seulement parce qu'on en parlait, mais aussi à cause de qui en parlait : de mes étudiants qui n'avaient jamais été intéressés, d'autres surfeurs que j'ai rencontrés lors de vacances à la plage et de mon partenaire géologue qui déteste la plupart des applications et des technologies. , et les réseaux sociaux.
Donc, dans cette petite newsletter, je vais explorer pourquoi nous sommes si attirés par ces robots.
ChatGPT et d'autres chatbots savent parfaitement imiter la façon dont les gens normaux parlent
Essentiellement, les chatbots comme ChatGPT sont ce que les amateurs appellent des outils de traitement du langage naturel qui ont ingéré une quantité massive de texte sur Internet et recherchent des modèles qu'ils peuvent vous imiter.
Ces types d’outils sont appelés grands modèles de langage, car ils modélisent littéralement des modèles d’après la façon dont les internautes parlent. Cela inclut l'analyse de mots tels que l'utilisation de « ngrams », un terme sophistiqué désignant essentiellement le ou les mots les plus susceptibles de suivre une séquence. Vous avez déjà vu cette technologie à l'œuvre dans la manière dont Google essaie de compléter automatiquement vos recherches en fonction du premier mot que vous tapez, reflétant ainsi ce que des milliers d'autres ont recherché avant vous.
Crédit : youtube.com
Les chatbots comme ChatGPT vont un peu plus loin. Ils savent très bien copier et combiner des styles. Mais aussi bons qu’ils soient pour imiter la façon dont les gens parlent, ils ne sont pas doués pour faire la distinction entre la réalité et la fiction.
C'est pourquoi Emily M. Bender , Timnit Gebru, Angelina McMillan-Major et Margaret Mitchell ont qualifié ces chatbots de « perroquets stochastiques » dans un article prémonitoire qu'ils ont écrit il y a trois ans. (Le contenu du journal aurait conduit Google à exclure deux de ses auteurs, Gebru et Mitchell.)
Comme le soulignent les auteurs de l’article, ce n’est pas parce qu’un robot peut reconnaître et cartographier la façon dont nous parlons qu’il sait reconnaître le sens.
Les chatbots imitent le ton, le langage et la familiarité si importants pour nous sur Internet
Les mots et la manière dont nous communiquons jouent un rôle important dans la manière dont nous signalons aux internautes de quels groupes nous faisons partie et en qui nous avons confiance. Utiliser le mot « flocon de neige » de manière moqueuse peut indiquer qu'une personne se penche de manière plus conservatrice. Utiliser des pronoms dans l’introduction signale une alliance avec les personnes trans et non conformes au genre, parmi d’autres communautés queer. Les mots et l’argot Internet en constante évolution sont un moyen de désigner l’appartenance.
Il est donc logique que les gens anthropomorphisent ChatGPT et, d’une certaine manière, testent son humanité. J'avoue que regarder un Frankensteined Furby connecté à ChatGPT parler de la conquête du monde m'a chatouillé même.
Crédit :twitter.com
Mais cela semble aussi être le plus grand défi face à l’attrait et aux dangers des modèles linguistiques comme ChatGPT. Que faisons-nous des robots qui reflètent si bien le comportement humain (ou Furby) que nous oublions qu'il ne s'agit que d'une grande carte statistique du langage Internet ?
Claire Wardle, l'une des premières chercheuses à enquêter sur les environnements informationnels et l'un de mes mentors, a mentionné que la rédaction de nombreux articles démystifiant la désinformation et de manuels sur la façon de la détecter ne contribuait pas à résoudre les problèmes liés à la désinformation et à ce que les gens croyaient. Souvent, peu importe le nombre d'outils que nous avons donnés aux gens pour démystifier les mythes : l'influence de ce que pensent les autres membres de notre communauté compte beaucoup, peut-être plus que la vérité.
Avoir des modèles de langage capables d'imiter le ton des figures d'autorité en qui nous avons confiance et de votre voisin d'à côté à la vitesse de la lumière signifie que ces chatbots mettront probablement les détecteurs de bs des gens à un test encore plus poussé.
Ces modèles ont tendance à nous mentir – parce qu’ils ne connaissent pas la différence entre la réalité et la fiction – et polluent encore davantage un écosystème d’informations déjà entaché et terriblement écrasant.
Cela est déjà devenu un problème : la société derrière ChatGPT, OpenAI, pourrait être poursuivie en justice pour avoir accusé à tort un maire australien d'avoir purgé une peine de prison pour corruption. Le chatbot a également accusé un professeur de droit de faire partie d'un scandale d'inconduite sexuelle qu'il a inventé . Même dans ce qui devrait ressembler à des scénarios à enjeux moindres, vous pouvez vivre la même expérience.
Lorsqu'un de mes collègues, Joel Eastwood, a demandé à ChatGPT si The Markup produisait un journalisme digne de confiance, il a répondu qu'un critique médiatique spécifique et bien connu avait écrit que The Markup était « l'une des organisations journalistiques les plus importantes de notre époque ». De toute évidence , il y a une certaine véracité dans cette déclaration, mais ce n'est pas une vraie citation.
L’attrait émotionnel de l’IA peut également normaliser davantage les préjugés, voire les contenus préjudiciables. Ce n’est un secret pour personne : Internet regorge de contenus préjudiciables, racistes, sexistes, homophobes et autrement gênants. Si vous entraînez un modèle de langage sur ce type de contenu, il y a de fortes chances qu'il le régurgite.
Les créateurs de la technologie des chatbots ont payé des travailleurs kenyans pour effectuer le travail traumatisant et horrible consistant à éliminer certains des pires contenus en ligne de leurs données de formation . Mais avec cette technologie rendue publique, les pirates informatiques l'ont déjà utilisée pour produire des résultats troublants, notamment des descriptions d'abus sexuels sur des enfants .
Les créateurs de ces technologies ont déployé leurs robots à une telle vitesse ces derniers mois, en partie parce qu'ils rivalisent pour dominer le marché . Mais les universitaires et les technologues les ont exhortés à mettre un terme à leur campagne en faveur de cette technologie et à véritablement considérer les dommages qu’elle pourrait causer.
Et même si de nombreuses conversations tournent autour de la politique et de la responsabilité d'entreprise, j'espère qu'en comprenant mieux ces technologies, les consommateurs ordinaires comme vous et moi pourront trouver un moyen de garder nos détecteurs de BS bien réglés lorsqu'ils discutent avec un modèle de langage automatisé.
Merci d'avoir lu. Si vous souhaitez en savoir plus sur les dangers de ChatGPT et sur la manière de mieux auditer votre propre collecte d'informations, retrouvez ci-dessous certains de mes travaux préférés sur le sujet.
Sincèrement,
Lam Thuy Vo
Journaliste
Le balisage
Par Lam Thuy Vo
Également publié ici
Photo de Possessed Photography sur Unsplash