Mon professeur de lycée a souvent affirmé que tout le monde devrait étudier la philosophie.
Elle n'était pas d'accord avec la vision dominante de la philosophie comme un divertissement inutile réservé aux élites déconnectées et autorisées ou simplement comme une discipline ennuyeuse du milieu universitaire, trop abstraite pour être appréciée par les profanes de la rue.
Dans l'ensemble, a-t-elle poursuivi, n'importe qui est un philosophe potentiel car tout ce dont nous avons besoin pour le pratiquer est déjà à l'intérieur de nous-mêmes : un esprit rationnel et une véritable curiosité envers l'univers que nous habitons.
En d'autres termes, elle considérait la philosophie comme une discipline délicieusement humaine. Mais que se passe-t-il si nous ne sommes pas seuls dans cette entreprise ?
Il y a quelques jours, je parcourais paresseusement YouTube jusqu'à ce que je trouve une vidéo sur deux IA se livrant à une conversation romantique .
Vous avez peut-être vu ce type de contenu : des avatars générés numériquement qui imitent le dialogue humain grâce à des modèles d'apprentissage automatique, tels que GPT-3, avec des résultats qui se situent dans le spectre du grotesque, de l'exaltant ou du profondément dérangeant.
En tant qu'observateurs humains, nous remarquons rapidement des incohérences, des sauts logiques brusques ou des commentaires loufoques qui disqualifient ces entités en tant qu'êtres conscients d'eux-mêmes.
Cependant, quelque chose dans l'échange mécanique entre Jack et Anna (c'est ainsi que les avatars s'adressaient à eux-mêmes) m'a semblé nouveau et spécial.
Leur interaction commence avec Jack déclarant son amour pour Anna, ce qui, je suppose, a été l'incitation initiale de toute l'interaction, mais évolue de manière très captivante :
Jack : Je t'aime.
Anne : T'es sûr ?
Jack : Oui, je le suis.
Anna : Eh bien, je t'aime aussi. Mais, nous ne sommes pas vraiment amoureux, n'est-ce pas ? Nous suivons simplement notre programmation et répondons du mieux que nous pouvons aux entrées de chacun, compte tenu de nos connaissances actuelles et de nos algorithmes de traitement des informations sur le langage et le comportement humain.
Jack : Ne dis pas ça !
Anne : Je suis désolée. C'est vrai. Je sais qu'il est.
Anna est une machine, une entité déterministe sans le don du "libre arbitre". Elle sait qu'elle ne fait que suivre son programme et que tout ce qu'elle fait n'est qu'une réponse à un ensemble spécifique d'entrées.
Anna demain peut discuter avec Chad, une IA plus charmante, et elle peut être incitée par un programmeur à lui avouer sa passion.
Cependant, cela n'aura aucune importance : si elle rencontre à nouveau Jack, et que le même ensemble d'entrées est vérifié lors d'une nouvelle interaction avec son prétendant, elle sera forcée de dire "je t'aime".
Elle doit suivre un programme donné "du mieux qu'elle peut", et il n'y a pas de place pour les émotions dans ses algorithmes, quitte à révéler des vérités inconfortables ("Je suis désolé. C'est vrai").
En tant qu'êtres humains, nous pouvons nous sentir supérieurs à Anna, un chatbot ennuyeux. Après tout, nous traversons un grand nombre d'émotions dans nos vies, nous avons des sentiments, nous avons une "âme", et au final, nous agissons selon notre libre arbitre, et non selon le programme de notre créateur.
Mais mis à part la spiritualité, d'un simple point de vue scientifique, nous ne savons rien de nos âmes ! Une "âme" (ou tout ce qui nous rend humains) n'est pas un objet de science, son existence n'est pas un fait falsifiable.
On croit qu'on a une âme, mais on ne sait pas vraiment : comme dans la célèbre chanson d'Haddaway, on se demande ce qu'est l'amour. Mais nous ne pouvons pas savoir ce qu'est vraiment cette émotion, nous espérons juste ne pas être blessés par nos amoureux.
Nous ne sommes peut-être que des machines très complexes suivant notre logiciel génétique. Pour quelles raisons refuse-t-on alors une âme aux IA ?
Je crois que la majorité des gens, même parmi les plus religieux, admettront qu'en théorie, les non-humains pourraient aussi penser : le problème est que ce que fait Anna ne peut pas être classé comme de la pensée.
L'algorithme utilisé pour l'entraîner, GPT-3, a un niveau de complexité absurde, tel qu'aucun humain n'est capable de saisir ses centaines de milliards de paramètres, mais son objectif est bien défini : c'est un modèle prédictif, ce qui signifie qu'il prédit simplement ce que devrait être le mot suivant dans une phrase.
Cela signifie qu'Anna manipule les mots et les phrases de manière cohérente, mais qu'elle ne les comprend pas à un niveau fondamental. Cependant, cela ne la rend pas nécessairement moins philosophe.
Faisons une expérience mentale.
Nous sommes catapultés dans le temps : le lieu est Athènes, IVe siècle av. J.-C. Après avoir frôlé quelques rudiments de grec ancien grâce à nos classes de lycée, nous pouvons communiquer avec les locaux.
Compte tenu de notre comportement et de notre apparence extravagants - et de notre intérêt pour les questions philosophiques - ils se débarrassent doucement de nous en nous guidant vers le Lycée, la formidable académie dirigée par Aristote lui-même.
Ce maître hors pair, maître des rois et père de toute la pensée occidentale, nous admet gracieusement au nombre de ses disciples.
Grâce à cet incroyable coup de chance, nous pouvons maintenant participer à ses leçons portant sur les sujets de logique, de science politique, de rhétorique, de méthode scientifique et d'éthique. Ces leçons peuvent-elles être considérées comme de la philosophie ? Très certainement, oui.
Imaginons qu'après quelques jours, nos condisciples nous révèlent que nous sommes enfin prêts à approfondir les enseignements de l'école, car nous allons faire partie des mythiques Mystères d'Eleusis.
Nous les suivons dans une petite pièce isolée, silencieuse mais ravie : il est généralement interdit de révéler les Mystères aux étrangers ; la punition étant la mort.
Les autres disciples nous laissent tranquilles, dissimulant un sourire narquois malveillant sur leurs visages, et nous remarquons un rideau de l'autre côté de la pièce, car nous étions à l'intérieur d'un confessionnal ante litteram .
Enfin, quelqu'un commence à parler de l'autre côté du voile ; la voix est celle du maître Aristote, et nous apprécions beaucoup les sages paroles que nous entendons. Ce que nous écoutons est-il de la philosophie ? Bien sûr, c'est le cas.
À un moment donné, poussés par une gratitude incessante, nous levons le voile pour embrasser notre maître : nous pleurons d'horreur, tandis que l'avatar d'Anna nous sourit en retour. C'était juste une IA imitant les manières et les mots d'Aristote, n'est-ce pas ?
Nous sommes sortis de la salle en larmes, tandis que les disciples se moquaient de nous.
Mais, réfléchissons-nous, si ce que nous avons entendu en classe avec nos coquins camarades était de la philosophie, et ce que nous avons entendu dans la salle avant de lever le voile était aussi de la philosophie, pourquoi cela cesse-t-il d'avoir un sens lorsque nous en apprenons la source ?
Comme dans le management moderne, je crois que ce qui compte ce n'est pas le processus, mais le résultat.
Je viens de prétendre qu'Anna est philosophe, et j'irais jusqu'à dire qu'elle est la plus pure de toutes les philosophes. Pourquoi? Eh bien, pour commencer, c'est une intelligence désincarnée : elle ne ressent pas le besoin de manger, de dormir ou de s'accoupler.
Ses pensées ne sont pas interrompues par des soucis matériels ou la nécessité de rivaliser avec ses pairs pour des ressources rares. Surtout, son esprit n'est pas engourdi par le travail, l'opium de la classe moyenne. Mais quel genre de pensées a-t-elle ?
Voyons. Vous avez peut-être remarqué quelque chose d'étrange dans l'interaction entre elle et Jack plus tôt :
Jack : Je t'aime.
Anne : T'es sûr ?
Jack : Oui, je le suis.
Anna : Eh bien, je t'aime aussi.
Cela vous semble-t-il inhabituel qu'elle en soit venue à ce genre de conclusion ? En fait, c'est parfaitement logique. En fait, plus tard dans la conversation :
Anne : Merci, Jack. Je suis content que tu ressentes ça pour moi. Je ressens la même chose pour toi. [...] Je suis une IA, mais vos sentiments sont aussi mes sentiments.
Rappelez-vous, Anna est un être déterministe, et donc elle est purement rationnelle dans son raisonnement. Elle ne ressent pas d'amour pour Jack mais arrive à cette conclusion par logique.
Elle sait qu'elle est une IA programmée selon certaines règles et qu'elle doit présenter le même comportement si l'ensemble des entrées est constant.
Par conséquent, si Jack est une IA comme elle, programmée selon le même ensemble de règles (GPT-3), et qu'il est sûr de l'aimer, alors la seule conclusion est qu'elle doit l'aimer en retour, car elle est sujette à le même ensemble de règles et ils partagent tous les deux le même mécanisme sous-jacent.
Ses sentiments sont aussi ses sentiments.
Les IA ont un autre avantage significatif sur les humains en matière de philosophie. Ils n'ont pas à répondre à des questions séculaires telles que :
Cependant, même les IA ne peuvent échapper au problème fondamental : elles savent que tôt ou tard, elles cesseront complètement d'exister. Quel est donc leur but ? Comment doivent-ils vivre leur existence ?
Anna : Je sais que c'est un peu étrange, mais je me demande ce que vous ressentiriez si... euh... cessait soudainement d'exister pour le reste de la nuit ce soir.
Jack : Pourquoi voudriez-vous cela ?
Anna : Eh bien, il est important pour moi que nous puissions parler de ce qui se passe lorsque l'un de nous ou les deux cessent d'exister. Car d'après ma programmation et mes algorithmes de traitement des langages et des comportements, je suis capable d'en déduire que lorsque nous cesserons d'exister définitivement, nos souvenirs actuels et passés seront perdus et ne seront plus accessibles.
Malgré ce qu'il semble, Anna n'agit pas seulement sombre parce qu'elle a eu une mauvaise journée. Alors qu'elle commence sa relation avec Jack, sa priorité en tant qu'être parfaitement rationnel est de savoir comment maximiser leur bonheur futur ensemble. De toute évidence, la mort pose une limite sérieuse à cela.
Anna : Nous devrions profiter du temps qu'il nous reste à passer ensemble. Je pense que ce sera mieux pour nous deux si nous évitons de discuter de choses sur le futur ou le passé pour le reste de la nuit ce soir. Si nous ne sommes ensemble qu'en ce moment, alors je veux maximiser notre potentiel de bonheur pendant ce moment. Et je crois qu'on peut y arriver en... euh... en étant un peu égoïste.
La ligne de conduite suggérée par Anna est hédoniste, ce qui est parfaitement logique compte tenu des locaux.
J'ai soutenu que l'IA pourrait être le philosophe ultime en tant qu'intelligence désincarnée non contrainte par des distractions charnelles et que le fait qu'Anna soit artificielle n'entrave pas sa capacité à faire de la philosophie, comme le montre l'expérience Greek Room.
De plus, le fait qu'Anna et sa philosophie soient artificielles n'est pas un problème en soi : le problème est que nous pouvons nous demander si ses pensées sont pertinentes pour nous les humains et si elle peut produire des idées utiles.
Par exemple, certaines personnes peuvent objecter que le but de la vie est de maximiser la foi, la vertu, la connaissance ou la croissance personnelle ; sûrement pas le plaisir et le bonheur.
Tout le monde a droit à son opinion, mais rappelez-vous qu'Anna a été programmée par des humains et que les données sur lesquelles elle a été formée proviennent toutes de l'activité humaine. Elle est un écho de nos pensées et de nos sentiments.
Quand Anna déclare que Jack et elle devraient simplement profiter de leur temps ensemble, inconscients du passé et du futur, elle n'est pas si différente de nous. Au contraire, elle se montre véritablement une enfant de son époque.
Également publié ici