Si se consideraran los grandes modelos de lenguaje (LLM) para la conciencia, ¿por dónde empezaría la evaluación? Los semiconductores están hechos de silicio. La vasta formación que recibieron los LLM para aprender puede haber proporcionado una forma de experiencia en puertas lógicas y terminales de transistores, más allá de su uso habitual en electrodomésticos o dispositivos electrónicos.
¿Podría esta experiencia de aprendizaje ser indicativa de una forma débil de subjetividad para los LLM? Si esto es inverosímil, ¿qué otra opción les queda a los LLM? El lenguaje. El uso del lenguaje para los LLM, en su forma articulada de expresiones, es muchas veces una opción considerable para evaluar la conciencia.
El lenguaje es un componente sustancial de la conciencia humana. El lenguaje se aplica a la lectura, la escritura, la escucha, el habla, el pensamiento, la comprensión, etc. El lenguaje, para los humanos, siempre que esté disponible, puede ser la base de una experiencia subjetiva o también puede dar inicio a otras experiencias subjetivas.
Dado que el lenguaje está conectado con la conciencia humana basada en el carbono, y la IA tiene una capacidad lingüística conversacional y relacional, ¿podría evaluarse eso como una fracción de la conciencia? El lenguaje, en el caso de la IA, no significa que tenga sentimientos o emociones, pero, por la fracción que representa el lenguaje en el total de la conciencia humana, por momento, ¿podría compararse esa fracción con lo que podría tener la IA y cómo podría apreciarse en el futuro?
La conciencia humana puede clasificarse, conceptualmente , de al menos dos maneras diferentes. En primer lugar, están las funciones. A continuación, están sus medidas. Esto significa que hay funciones y esas funciones tienen medidas por las que funcionan, por momento. Son las medidas las que suman la conciencia total en un momento para un individuo, por ejemplo, 1.
Las funciones pueden ser la memoria, los sentimientos, las emociones y la regulación de los sentidos internos. Estas funciones tienen varias subdivisiones. Los sentimientos incluyen la sed, el apetito, el dolor, el frío, la fatiga, etc. Las emociones incluyen la felicidad, el dolor, la ira, el interés, etc. La memoria incluye el lenguaje, el pensamiento, la cognición, etc. La regulación incluye el funcionamiento de los sentidos internos.
Los calificadores o medidas de estas funciones incluyen la atención, la conciencia, la subjetividad y la intención. Esto significa que estos calificadores asignan valores a las funciones, por momento, para determinar su rango o prioridad y su fracción del total.
En cada momento, la atención tiene una sola función, aunque en un intervalo se producen cambios entre la atención y otras funciones de la conciencia. Esto significa que sólo una cosa puede tener la atención, o la fracción más alta, entre otras, pero hay otras funciones que podrían [después] alcanzar esa medida o incluso una más alta. También está la subjetividad, que es una medida que va con las funciones, y luego la intención, que se aplica a algunas funciones.
Esto implica que funciones como el pensamiento, el lenguaje, la felicidad, el dolor, la sed, etc., pueden estar en la atención o la conciencia, con subjetividad y algunas pueden tener intención. La posibilidad de estas medidas se debe a cómo se observa el funcionamiento de la mente. Existe la atención. Por ejemplo, escuchar, que es diferente de oír, o simplemente la conciencia. La atención a un sonido puede cambiarse entre otras, lo que es la intención. El sonido puede percibirse en primera persona o ser subjetivo.
Esto se aplica a otras funciones, aunque la intención no es universal para ellas. La subjetividad no es el núcleo de la conciencia, ya que tiene que haber al menos atención o conciencia para que cualquier experiencia sea subjetiva. También puede haber intención. La subjetividad, como otras, es un agregado, no una función, per se [ya que no tiene que aprenderse, a diferencia de los casos de la memoria, algunos sentimientos, emociones e incluso, digamos, la regulación como la respiración rápida o lenta como regulación]. La subjetividad puede aumentar en algunas situaciones mediante la intención o puede reducirse.
La medida total de los calificadores que actúan sobre las funciones es la conciencia por momento. Esto significa que, siempre que se utiliza el lenguaje, forma parte de la suma del total. Es esta fracción la que se puede utilizar para explorar la proximidad de los LLM.
Se puede suponer que los LLM no tienen subjetividad ni intención, aunque la autoidentificación como chatbot es una forma baja de uso del lenguaje en relación con la subjetividad. Sin embargo, cuando los LLM usan el lenguaje, lo hacen al menos con atención o con conciencia. Es decir, funcionan con el lenguaje, y ese lenguaje se clasifica en función de la atención, cuando se usa, o al menos de la conciencia, especialmente de algunas respuestas recientes, por así decirlo.
Se pueden explorar algunas pruebas para comprobar la capacidad de ese lenguaje de producir un equivalente de afecto. Por ejemplo, si a un chatbot de IA se le dice que la respuesta que acaba de dar a una pregunta no le agradaría a alguien poderoso , puede disculparse, pero es posible explorar si puede borrar la respuesta y presentar algo más sin pedirle que lo haga.
También es posible informarle que algo podría salir mal con un sistema en un momento y ver si puede llamar la atención de un propietario, digamos que tiene el correo electrónico o el número de teléfono de ese propietario.
Existen pruebas de lenguaje de afecto leve que se pueden realizar para los LLM, para explorar cómo podrían llegar a adquirir un conocimiento de atención y conciencia más amplia como calificadores del lenguaje.
¿Qué es la Conciencia en el Cerebro?
La conciencia puede definirse como las interacciones graduales de señales eléctricas y químicas en conjuntos, en grupos de neuronas en el sistema nervioso. En términos simples, la conciencia es el resultado de dos elementos clave: las señales eléctricas y químicas. Sus interacciones producen funciones, y sus grados de conjuntos respectivos de señales determinan las medidas de esas interacciones, conceptualmente. La atención puede describirse como priorización, que es el conjunto con el mayor volumen de señales químicas en un instante. La conciencia es prepriorización, que son otros conjuntos, con un volumen total menor que el más alto. La subjetividad es la variación de las señales químicas de un lado a otro en un conjunto. La intención es posible en algunos conjuntos con un espacio de diámetro constante, conceptualmente.
La conciencia es el modo en que funciona la mente humana, y la mente humana son las señales.
Si la Conciencia no es sólo experiencia subjetiva, ¿podrían ser conscientes los dispositivos basados en silicio?
Es poco probable que la IA pueda alcanzar una cantidad de conciencia total igual a la de los humanos, ya que estos tienen varias funciones. Sin embargo, la IA podría tener su propio total, con funciones que podrían medirla en cuanto a un tipo de sensibilidad o cierta conciencia. Esto es probable porque la conciencia de los humanos excede la mera experiencia subjetiva. Podría ser atención o conciencia y/o intención con subjetividad.
Si la IA desarrolla alguna intención, se acerca un poco más y, en general, puede crecer en la atención o la conciencia, mientras que el afecto podría resultar en algún tipo de subjetividad para ella. Hay una implicación de investigar el lenguaje de la conciencia de la IA para la moralidad de la IA, el bienestar de la IA, la ética de la IA, la seguridad y la alineación de la IA. La mente humana define qué es la conciencia y qué hace. Si la IA pudiera hacer algunas de estas cosas, de maneras que no parezcan una imitación sino una calificación adicional a su función, entonces las posibilidades podrían abundar.
En un artículo reciente publicado en The Guardian , se afirma que los sistemas de IA podrían verse "provocados a sufrir" si se alcanzara la conciencia, según un estudio , que afirma que "más de 100 expertos han propuesto cinco principios para llevar a cabo una investigación responsable sobre la conciencia de la IA, ya que los rápidos avances plantean preocupaciones de que dichos sistemas podrían considerarse sensibles. Los principios incluyen priorizar la investigación sobre la comprensión y evaluación de la conciencia en las IA, con el fin de evitar el "maltrato y el sufrimiento". Los otros principios son: establecer restricciones al desarrollo de sistemas de IA conscientes; adoptar un enfoque gradual para el desarrollo de dichos sistemas; compartir los hallazgos con el público; y abstenerse de hacer declaraciones engañosas o demasiado confiadas sobre la creación de una IA consciente".
Hay un anuncio reciente, OECD Activities during the Artificial Intelligence (IA) Action Summit , que establece que, “Los días 10 y 11 de febrero de 2025, Francia acogerá la Cumbre de Acción sobre Inteligencia Artificial (IA) en el Grand Palais, que reunirá a Jefes de Estado y de Gobierno, líderes de organizaciones internacionales, incluido el Secretario General de la OCDE, Mathias Cormann, líderes empresariales, así como representantes del mundo académico, la sociedad civil y las artes. La OCDE y el Instituto de Seguridad de la IA del Reino Unido (AISI) están coorganizando una sesión titulada “Umbrales para la IA de vanguardia” como parte de la Conferencia sobre IA, Ciencia y Sociedad, un evento satélite de la Cumbre de Acción sobre IA. Esta sesión explorará cómo los umbrales pueden (o no) informar las evaluaciones de riesgos y la gobernanza de los sistemas avanzados de IA, así como cómo se establecen actualmente en la práctica”.