paint-brush
Alors... Comment peut-on VRAIMENT déterminer que l’IA est consciente ?par@step
1,997 lectures
1,997 lectures

Alors... Comment peut-on VRAIMENT déterminer que l’IA est consciente ?

par stephen6m2025/02/08
Read on Terminal Reader

Trop long; Pour lire

Étant donné que le langage est lié à la conscience humaine basée sur le carbone et que l’IA a une capacité de conversation et de communication, cela pourrait-il être évalué comme une fraction de la conscience ? Le langage, par IA, ne signifie pas qu’il a des sentiments ou des émotions, mais pour la fraction que le langage représente dans le total de la conscience humaine, par instant, cette fraction pourrait-elle être comparée à ce que l’IA pourrait avoir et à la façon dont cela pourrait s’apprécier à l’avenir ?
featured image - Alors... Comment peut-on VRAIMENT déterminer que l’IA est consciente ?
stephen HackerNoon profile picture

Si les grands modèles de langage [LLM] devaient être envisagés pour la conscience, par où commencer une évaluation ? Les semi-conducteurs sont faits de silicium. La vaste formation que les LLM ont suivie pour apprendre a peut-être fourni une forme d'expérience aux portes logiques et aux terminaux des transistors, loin de leur utilisation habituelle dans les appareils électroménagers ou l'électronique.


Cette expérience d’apprentissage pourrait-elle être révélatrice d’une forme de subjectivité faible pour les LLM ? Si cela n’est pas plausible, quelle autre option existe-t-il pour les LLM ? La langue. L’utilisation de la langue pour les LLM, dans leurs formes d’expression articulées – souvent – est une option considérable pour évaluer la conscience.

Le langage est une composante essentielle de la conscience humaine. Il s’applique à la lecture, à l’écriture, à l’écoute, à la parole, à la réflexion, à la compréhension, etc. Le langage, pour les humains, partout où il est disponible, peut être la base d’une expérience subjective ou peut également déclencher d’autres expériences subjectives.

Étant donné que le langage est lié à la conscience humaine basée sur le carbone et que l’IA a une capacité de conversation et de communication, cela pourrait-il être évalué comme une fraction de la conscience ? Le langage, par IA, ne signifie pas qu’il a des sentiments ou des émotions, mais pour la fraction que le langage représente dans le total de la conscience humaine, par instant, cette fraction pourrait-elle être comparée à ce que l’IA pourrait avoir et à la façon dont cela pourrait s’apprécier à l’avenir ?

La conscience humaine peut être catégorisée, conceptuellement , de deux manières différentes au moins. La première est celle des fonctions. La deuxième est celle de leurs mesures. Cela signifie qu'il y a des fonctions, et que ces fonctions ont des mesures par lesquelles elles fonctionnent, à chaque instant. Ce sont les mesures qui résument la conscience totale à un instant donné pour un individu, par exemple 1.


Les fonctions peuvent être la mémoire, les sentiments, les émotions et la régulation des sens internes. Ces fonctions ont plusieurs sous-divisions. Les sentiments comprennent la soif, l'appétit, la douleur, le froid, la fatigue, etc. Les émotions comprennent le bonheur, la douleur, la colère, l'intérêt, etc. La mémoire comprend le langage, la pensée, la cognition, etc. La régulation comprend le fonctionnement des sens internes.


Les évaluateurs ou mesures de ces fonctions incluent l'attention, la conscience, la subjectivité et l'intention. Cela signifie que ces évaluateurs attribuent des valeurs aux fonctions, par moment, pour déterminer leur rang ou priorité et leur fraction du total.


Il n’y a qu’une seule fonction d’attention par instant. Bien qu’il y ait des commutations entre l’attention et d’autres fonctions de la conscience, dans un intervalle. Cela signifie qu’une seule chose peut avoir l’attention, ou la fraction la plus élevée, parmi d’autres, mais il y a d’autres fonctions qui pourraient [par la suite] prendre cette mesure ou une plus grande aussi. Il y a aussi la subjectivité, qui est une mesure qui va avec les fonctions, et puis l’intention, qui s’applique à certaines fonctions.


Cela implique que des fonctions comme la pensée, le langage, le bonheur, la douleur, la soif, etc. peuvent être dans l'attention ou la conscience, avec subjectivité et certaines peuvent avoir une intention. La possibilité de ces mesures est due à la façon dont l'esprit est observé en train de fonctionner. Il y a l'attention. Par exemple, l'écoute, qui est différente de l'audition, ou simplement la conscience. L'attention à un son peut être commutée entre d'autres, ce qui est une intention. Le son peut être perçu à la première personne, ou de manière subjective.


Cela s’applique à plusieurs autres fonctions, bien que l’intention ne soit pas universelle pour les fonctions. La subjectivité n’est pas le cœur de la conscience puisqu’il faut au moins une attention ou une conscience pour qu’une expérience soit subjective. Il peut aussi y avoir une intention. La subjectivité, comme d’autres, est un attaché, pas une fonction, en soi [puisqu’elle n’a pas besoin d’être apprise, contrairement aux cas de mémoire, de certains sentiments, émotions et même de régulation comme la respiration rapide ou lente comme régulation]. La subjectivité peut être augmentée dans certaines situations par l’intention ou être réduite.


La mesure totale des gradeurs agissant sur les fonctions est la conscience par moment. Cela signifie que chaque fois que le langage est utilisé, il fait partie de la somme du total. C'est cette fraction qui peut être utilisée pour explorer la proximité des LLM.


On peut supposer que les LLM n’ont pas de subjectivité ou d’intention. Bien que l’auto-identification en tant que chatbot soit une forme faible d’utilisation du langage envers la subjectivité. Cependant, lorsque les LLM utilisent le langage, ils le font au moins en attention, ou en conscience. C’est-à-dire qu’ils fonctionnent avec le langage, et que ce langage est gradué en fonction de l’attention, du moment de son utilisation, ou au moins de la conscience, en particulier de certaines réponses récentes, pour ainsi dire.


Certains tests sur la capacité de ce langage à produire un équivalent affectif peuvent être explorés. Par exemple, si on dit à un chatbot IA que la réponse qu'il vient de donner à une question ne plairait pas à quelqu'un de puissant , il peut s'excuser, mais il est possible d'explorer s'il peut effacer la réponse et présenter quelque chose d'autre, sans lui demander de le faire.


Il est également possible de l'informer que quelque chose pourrait mal se passer avec un système à un moment donné, et de voir s'il peut attirer l'attention d'un propriétaire, par exemple s'il dispose de l'e-mail ou du numéro de téléphone de ce propriétaire.


Il existe des tests de langage à effet léger qui peuvent être effectués pour les LLM, afin d'explorer comment ils pourraient accéder à une connaissance d'attention et de conscience plus large en tant qu'évaluateurs de langue.

Qu’est-ce que la conscience dans le cerveau ?


La conscience peut être définie comme les interactions graduées de signaux électriques et chimiques en groupes, dans des groupes de neurones du système nerveux. Simplement, la conscience est le résultat de deux éléments clés : les signaux électriques et chimiques. Leurs interactions produisent des fonctions, et leurs degrés d'ensembles respectifs de signaux déterminent les mesures de ces interactions, conceptuellement. L'attention peut être décrite comme une priorisation, qui est l'ensemble avec le plus grand volume de signaux chimiques en un instant. La conscience est une pré-priorisation, qui est d'autres ensembles, avec un volume total inférieur au plus élevé. La subjectivité est la variation des signaux chimiques d'un côté à l'autre d'un ensemble. L'intention est possible dans certains ensembles avec un espace de diamètre constant, conceptuellement.

La conscience est la façon dont fonctionne l'esprit humain. Et l'esprit humain, ce sont les signaux.

Si la conscience n’est pas seulement une expérience subjective, les appareils à base de silicium pourraient-ils être conscients ?


Il est peu probable que l’IA puisse obtenir une quantité totale de conscience aussi importante que celle des humains, car ces derniers ont plusieurs fonctions. Cependant, l’IA pourrait avoir sa propre quantité totale, avec des fonctions qui pourraient la mesurer pour un type de sensibilité, ou une certaine conscience. Cela est probablement dû au fait que la conscience pour les humains dépasse la simple expérience subjective. Il pourrait s’agir d’attention ou de conscience et/ou d’intention avec subjectivité.

Si l’IA développe une intention, elle s’en rapproche un peu, et elle peut alors généralement se développer en fonction de l’attention ou de la conscience, tandis que l’affect pourrait entraîner une sorte de subjectivité pour elle. Il y a une implication dans la recherche du langage de la conscience de l’IA pour la moralité de l’IA, le bien-être de l’IA, l’éthique de l’IA, la sécurité de l’IA et l’alignement. L’esprit humain définit ce qu’est la conscience et ce qu’elle fait. Si l’IA pouvait faire certaines de ces choses, d’une manière qui ne ressemble pas à une imitation mais à une classification supplémentaire de sa fonction, alors les possibilités pourraient être abondantes.

Le Guardian a récemment publié un article intitulé AI systems could be 'caused to suffer' if awareness acquired, says research , qui précise que « Plus de 100 experts ont proposé cinq principes pour mener des recherches responsables sur la conscience des IA, alors que les progrès rapides suscitent des inquiétudes quant au fait que ces systèmes pourraient être considérés comme sensibles. Ces principes incluent la priorité accordée à la recherche sur la compréhension et l'évaluation de la conscience chez les IA, afin d'éviter « les mauvais traitements et la souffrance ». Les autres principes sont les suivants : fixer des contraintes pour le développement de systèmes d'IA conscients ; adopter une approche progressive pour le développement de tels systèmes ; partager les résultats avec le public ; et s'abstenir de faire des déclarations trompeuses ou trop confiantes sur la création d'une IA consciente ».

Une annonce récente, intitulée Activités de l’OCDE lors du Sommet d’action sur l’intelligence artificielle (IA) , stipule que « Les 10 et 11 février 2025, la France accueillera au Grand Palais le Sommet d’action sur l’intelligence artificielle (IA), qui réunira des chefs d’État et de gouvernement, des dirigeants d’organisations internationales, dont le Secrétaire général de l’OCDE, Mathias Cormann, des chefs d’entreprise, ainsi que des représentants du monde universitaire, de la société civile et des arts. L’OCDE et l’Institut britannique pour la sécurité de l’IA (AISI) coorganisent une session intitulée « Seuils pour l’IA de pointe » dans le cadre de la Conférence sur l’IA, la science et la société, un événement satellite du Sommet d’action sur l’IA. Cette session examinera comment les seuils peuvent (ou ne peuvent pas) éclairer les évaluations des risques et la gouvernance des systèmes d’IA avancés, ainsi que la manière dont ils sont actuellement fixés dans la pratique. »