En 2017, un robot s'est lassé de son travail et s'est suicidé dans une fontaine à eau . Puis, en 2022, un ingénieur de Google a déclaré , après avoir interagi avec LaMDA, le chatbot de l'entreprise, que la technologie était devenue consciente. Récemment, il a été rapporté qu'en 2021, un ingénieur logiciel de Tesla avait été attaqué par un robot incontrôlé. C’est sans compter la crainte que les machines volent des emplois, ni la fiction classique selon laquelle les machines vont conquérir le monde.
Bien que nous ne considérions pas les machines comme des réplicants dans Blade Runner, les gens sont prédisposés à anthropomorphiser ou à attribuer des qualités humaines à des non-humains [1]. C'est une façon d'analyser un scénario et de le comprendre : nous donnons des noms à nos bateaux et à nos tornades, nous parlons à nos animaux de compagnie et disons que le sentiment agréable qu'ils nous procurent est l'amour. Il est plus facile de comprendre un système qui déclare à la première personne « Je suis désolé, je ne sais pas comment vous aider » que d'accepter que le modèle auquel nous parlons n'est peut-être qu'un perroquet stochastique. [2]
L'interaction anthropomorphisée est donc liée au phénomène de « l'illusion d'action », un concept psychologique qui fait référence à la tendance à attribuer une action ou un contrôle autonome à des entités qui, en réalité, ne possèdent pas de telles capacités. En d’autres termes, il s’agit de la perception erronée selon laquelle un agent (qu’il s’agisse d’une personne, d’un animal ou d’une machine) agit de son plein gré, alors qu’en réalité ses actions sont déterminées par des facteurs externes (dans le cas informatique, le développement règles).
Dans les situations où les systèmes d'IA prennent des décisions ou des actions erronées, on a tendance à considérer ces erreurs comme des « choix » de l'entité plutôt que comme le résultat de sa programmation et de sa conception par des humains, notamment parce qu'il a été rapporté que les préjugés égoïstes d'un système d'IA prennent des décisions ou des actions erronées. L'être humain qui amène quelqu'un à considérer la cause et la responsabilité d'un résultat négatif comme non imputable à lui-même peut être observé même dans les interactions homme-machine [3].
Ce changement de perception tend dangereusement à absoudre les créateurs, les opérateurs et les régulateurs humains de leur responsabilité, et non pas dans le cadre d'une réglementation judiciaire (qui reste une lacune et présente des défis dans sa réalisation, non seulement en raison de la complexité du sujet mais aussi parce que l'artificiel L’intelligence est souvent comprise uniquement comme un apprentissage automatique et le principe n’est pas correctement structuré. Avons-nous besoin d’une réglementation plus stricte ? Devons-nous prendre plus de risques ?), mais sur une question techno-éthique.
Prenons un événement plus extrême mais réel survenu en 2023 : un utilisateur qui était sentimentalement attaché à un chatbot s'est suicidé après avoir partagé ses pensées avec le bot et reçu la réponse "transformez vos paroles en actions", ainsi que d'autres messages. Une condamnation judiciaire des développeurs de ce produit amènerait-elle un autre utilisateur à se comporter de la même manière avec un autre chatbot, à supposer que celui-ci ait été désactivé, si le contenu des messages et l'affection sont les mêmes ? Ce n'est pas seulement une situation juridique. C'est une question d'éducation sociale, psychologique et technologique.
Le concept d’humanisation de l’IA est ambigu et un défi important réside dans l’absence d’une approche universellement acceptée dictant les meilleures pratiques pour la conception et l’utilisation de l’IA. Même si une interface qui imite le comportement humain peut être plus accessible, aucune limite claire ne définit ce qui doit ou ne doit pas être fait dans un produit. En fin de compte, le rejet de l'utilisateur devient le seul facteur limitant, même si un préjudice potentiel peut se manifester avant que l'interface ne devienne trop familière.
Une interface conviviale est une réduction de la complexité du système qui fonctionne derrière elle. Mais tant qu’il n’y aura pas d’éducation sur le fonctionnement des systèmes, l’utilisateur ne sera pas en mesure de réfléchir de manière critique à ce qu’il utilise. Cela ne signifie pas que tout le monde devrait devenir programmeur, mais au moins comprendre que le résultat sur son écran provient d'un processus de collecte de données, de développement de modèles et de conception. Un ensemble de règles est en vigueur. Puisque l'humanisation est un acte presque inconscient de la part de nous, utilisateurs, limitons-le au moins avec un peu de connaissances.
Et il n'est pas facile d'éviter l'anthropomorphisme lorsqu'on communique sur l'IA, surtout si l'on considère le langage standard de l'industrie, des médias et de la vie quotidienne elle-même : apprentissage automatique, vision par ordinateur, modélisation générative. Les perceptions de l’intelligence artificielle peuvent être influencées par l’utilisation spécifique du langage.
La manière dont l’IA est présentée a des « impacts concrets », notamment sur la façon dont les gens répartissent la responsabilité et la reconnaissance du travail effectué. Lorsqu'il est décrit simplement comme un outil entre les mains des humains, il tend à attribuer une plus grande responsabilité et un plus grand mérite à certains individus, comme la personne qui exploite le code. D’un autre côté, si l’IA se caractérise par des traits humains – comme la capacité de créer – alors elle est considérée comme méritant un plus grand crédit et une plus grande responsabilité, à l’instar d’un agent doté d’une pensée indépendante et d’une capacité mentale. [4] Lorsque l’on lit des reportages sur des incidents ou des événements atypiques impliquant l’Intelligence Artificielle, on tombe souvent sur ces termes.
En outre, l'attribution de « l'intelligence » signifie que davantage de blâmes ou de crédit pour le résultat d'une tâche ont été attribués à un robot doté d'un comportement autonome qu'à un robot non autonome, même si le comportement autonome n'a pas directement contribué à la tâche. [3] Ces études suggèrent donc que les humains peuvent attribuer des responsabilités à un ordinateur ou à un robot en fonction des capacités mentales anthropomorphisées des machines.
L’humanisation des machines déplace non seulement la distinction entre la responsabilité de l’appareil et celle de son créateur humain, mais l’attribution d’intentions ou de conscience à une machine brouille en même temps les frontières de ce qui constitue la véritable autonomie et la conscience.
Cependant, la difficulté d’attribuer l’humanité et la sensibilité à une machine ne réside pas seulement dans le fait que l’Intelligence Artificielle n’est pas capable de l’avoir et quand elle dit, par exemple, qu’elle ressent de la peur, elle imite en réalité ce qu’elle a appris, en répétant cette phrase sans aucune essence derrière elle. Aujourd’hui encore, il existe un débat houleux sur la manière de définir la conscience. Notre conscience, en tant qu'humains.
Notre compréhension du fonctionnement du cerveau est encore assez limitée. Nous possédons des connaissances considérables sur la chimie fondamentale : la manière dont les neurones s’activent et la transmission des signaux chimiques. Nous avons également une bonne compréhension des principales fonctions des différentes zones cérébrales. Cependant, nous savons très peu de choses sur la manière dont ces fonctions nous orchestrent. Dans une certaine mesure, la spéculation théorique a supplanté les études neurophysiologiques détaillées sur ce qui se passe dans le cerveau. Mais qu’en est-il au-delà ? [5] Pourquoi avons-nous cette notion magique de nous-mêmes ? Pourquoi la même expérience nous affecte-t-elle différemment ? Le même sentiment est-il ressenti de la même manière par nous tous ?
Si être un humain est quelque chose qui, même si nous en faisons l'expérience, ne comprend toujours pas pleinement ce que c'est dans son ensemble, comment pouvons-nous dire qu'une machine fait également l'expérience de cette complexité ? En élevant les machines au niveau des capacités humaines, nous diminuons le caractère particulier des personnes.
Pour le Prix Jabuti 2023, l'une des plus hautes distinctions de la littérature brésilienne, la Chambre brésilienne du livre (CBL) a décidé de disqualifier Frankenstein, une édition du classique de 1818, de la catégorie Meilleure illustration, car l'artiste a déclaré avoir utilisé des solutions d'IA pour développer L'art. Ironiquement, l'un des livres récompensés par le Prix dans la catégorie Non-Fiction traite de l'impact de l'intelligence artificielle sur les êtres humains (« Humanamente digital : Inteligência artificial centrada no humano », quelque chose comme « Humanly Digital : Human-Centered Artificial Intelligence » en anglais, par Cassio Pantaleone). D’une part, nous reconnaissons l’imbrication de l’expérience humaine avec les machines. En revanche, nous n'avons toujours pas réussi à valider si un algorithme utilisé comme outil artistique peut être considéré ou non comme une méthode de création valable, même si le processus artistique, même s'il est réalisé par apprentissage automatique, nécessite l'action ( et appréciation de la beauté et de l'esthétique) d'un être humain.
Les machines ne volent pas d’emplois si elles ne sont pas utilisées sans discernement à cet effet. Les machines ne tuent que si elles sont utilisées comme armes. Les machines ne souffrent pas non plus et ne font pas preuve d'empathie, bien que leurs textes imitent cela puisqu'elles ont été entraînées avec nos données, chargées de sentiments que nous seuls pouvons vraiment ressentir. Ils sont presque la version moderne du mythe du Golem. Comment les humains peuvent-ils s’identifier à l’intelligence non humaine ? L'anthropomorphisme est une réponse valable, mais pas la seule. Et lorsqu’il est utilisé, il ne peut nous exonérer de la véritable responsabilité de ses conséquences, qu’elles soient appropriées ou non : nous.
L’intelligence artificielle est, en fin de compte, un miroir de nous-mêmes. Et si nous avons peur de la direction que cela prend, c'est en fait parce que nous avons peur du chemin que nous allons créer.
[1] Epley, N., Waytz, A. et Cacioppo, JT (2007). Voir l'humain : une théorie à trois facteurs de l'anthropomorphisme. Revue psychologique, 114(4), 864-886. https://doi.org/10.1037/0033-295X.114.4.864
[2] Shneiderman, B. et Muller, M. (2023) . Sur l'anthropomorphisme de l'IA
[3] Kawai, Y., Miyake, T., Park, J. et al. Attributions de causalité et de responsabilité aux robots basées sur l'anthropomorphisme. Sci Rep 13, 12234 (2023). https://doi.org/10.1038/s41598-023-39435-5
[4] Epstein, Z., Levine, S., Rand, DG et Rahwan, I. (2020). À qui revient le mérite de l’art généré par l’IA ? Dans iScience (Vol. 23, Numéro 9, p. 101515). Elsevier BV. https://doi.org/10.1016/j.isci.2020.101515
[5] Goff, P. (2023). Comprendre la conscience va au-delà de l'exploration de la chimie du cerveau. Américain scientifique
L'invite suivante a généré l'image utilisée dans cet article : "Créez un homme qui se regarde dans un miroir, mais le miroir a la forme d'un robot." Sofia × DALL·E