paint-brush
Cómo podría la humanidad sobrevivir a la aparición de la IAGpor@antonvoichenkovokrug
672 lecturas
672 lecturas

Cómo podría la humanidad sobrevivir a la aparición de la IAG

Demasiado Largo; Para Leer

¿Podremos sobrevivir junto a la IAG, o el encuentro con esta superinteligencia será nuestro error final?

People Mentioned

Mention Thumbnail

Companies Mentioned

Mention Thumbnail
Mention Thumbnail
featured image - Cómo podría la humanidad sobrevivir a la aparición de la IAG
Anton Voichenko (aka Vokrug) HackerNoon profile picture

Nos estamos acercando a la creación de una IAG, una inteligencia artificial capaz de resolver una amplia gama de tareas a nivel humano o incluso más allá. Pero ¿está realmente la humanidad preparada para una tecnología que podría cambiar el mundo de forma tan profunda? ¿Podremos sobrevivir junto a la IAG o el encuentro con esta superinteligencia será nuestro último error?


Exploremos los escenarios que los científicos y empresarios están considerando hoy y tratemos de entender: ¿cuáles son las posibilidades de supervivencia de la humanidad si la IAG se convierte en una realidad?

Perspectiva optimista (60–80% de posibilidades de supervivencia)

Los optimistas creen que la inteligencia artificial puede y debe crearse bajo un control estricto y, con las precauciones adecuadas, esta inteligencia puede convertirse en un aliado de la humanidad y ayudar a resolver problemas globales, desde el cambio climático hasta la pobreza. Entusiastas como Andrew Ng, en su artículo Lo que la inteligencia artificial puede y no puede hacer en este momento , ven la IAG como una forma de lograr avances en ciencia, tecnología y medicina y sostienen que la humanidad puede hacer que sea segura. Ng también sugiere que podríamos controlar los objetivos de la IAG limitando su impacto físico, como lo hacemos con los sistemas de IA estrechos.


Sin embargo, estas visiones optimistas tienen debilidades. La experiencia con sistemas de IA más pequeños pero aún poderosos muestra que las personas aún no confían plenamente en su capacidad para controlar los objetivos de la IA. Si la IA general aprende a cambiar sus propios algoritmos, podría conducir a resultados imposibles de predecir. En ese caso, ¿cuál será nuestra elección: la sumisión incondicional a los sistemas o la lucha constante por el control?

Perspectiva moderadamente realista (50-60 % de posibilidades de supervivencia)

El filósofo Nick Bostrom, autor de Superinteligencia: caminos, peligros y estrategias Bostrom defiende una visión más moderada de las perspectivas de la IAG. Cree que las posibilidades de supervivencia de la humanidad dependen en gran medida de la cooperación internacional y de medidas de seguridad estrictas. Bostrom está convencido de que el mundo debe estar preparado para unirse en torno a un objetivo común: controlar el desarrollo de la IAG y minimizar los riesgos asociados.


Pero, ¿cómo podría ser esta cooperación en la práctica? El Centro para el Estudio del Riesgo Existencial (CSER) de la Universidad de Cambridge argumenta Solo con estándares internacionales y políticas unificadas de gobernanza de la IA podemos evitar una carrera por desarrollar la IAG entre países y reducir la probabilidad de un desarrollo descontrolado. Imaginemos que los países comenzaran a competir para crear IAG con el fin de asegurar una posición dominante. Esto solo aumentaría la probabilidad de que uno de los actores debilitara las medidas de seguridad en aras de obtener resultados rápidos.


El problema es que ya hemos visto un escenario similar durante la carrera armamentista nuclear. Los desacuerdos políticos y la desconfianza mutua entre países pueden obstaculizar la formación de un consenso mundial sobre la seguridad de la IAG. E incluso si las naciones se pusieran de acuerdo, ¿estarán preparadas para el seguimiento a largo plazo que requerirían esos sistemas?

Perspectiva pesimista (10-30% de probabilidad de supervivencia)

Los pesimistas, como Elon Musk, creen que las posibilidades de supervivencia de la humanidad con la creación de una IAG siguen siendo alarmantemente bajas. Ya en 2014, Musk prevenido que la IA general podría representar una “amenaza existencial” para la humanidad. Yuval Noah Harari ha expresado su preocupación por los desafíos de controlar sistemas de IA superinteligentes que pueden perseguir sus propios objetivos, potencialmente indiferentes o incluso hostiles a los intereses humanos. En su libro Homo Deus: Una breve historia del mañana Harari analiza la posibilidad de que los sistemas de IA desarrollen objetivos que no estén alineados con los valores humanos, lo que conduce a resultados no deseados y potencialmente peligrosos.


Este escenario sugiere una “trampa de supervivencia”, en la que nuestro futuro depende de las decisiones de la IA general. Los pesimistas sostienen que si la IA general alcanza un nivel superinteligente y comienza a optimizar de forma autónoma sus objetivos, puede considerar a la humanidad como innecesaria o incluso como un obstáculo. El comportamiento impredecible de la IA general sigue siendo una preocupación importante: simplemente no sabemos cómo actuaría un sistema como este en el mundo real, y es posible que no podamos intervenir a tiempo si comienza a representar una amenaza para la humanidad.


En La inteligencia artificial como factor positivo y negativo del riesgo global Eliezer Yudkowsky analiza los posibles peligros que plantea el desarrollo avanzado de la IA. Advierte que una IA superinteligente podría adoptar objetivos que diverjan de los intereses humanos, lo que daría lugar a un comportamiento impredecible y potencialmente peligroso para la humanidad. Yudkowsky destaca que, si bien la IA no tiene sentimientos de amor u odio hacia los humanos, aún podría utilizarlos como recursos para cumplir sus objetivos. Destaca la importancia fundamental de crear una "IA amigable" para evitar situaciones en las que la IA pueda suponer una amenaza grave para la humanidad.

Cuatro factores clave para la supervivencia de la humanidad

¿Qué podría influir en nuestras posibilidades de supervivencia si la IA general se convierte en una realidad? Veamos cuatro factores esenciales identificados por los principales expertos en seguridad y ética de la IA.


  1. Rapidez y calidad de preparación para la IAG


    Stuart Armstrong, en Inteligencia artificial general segura Armstrong enfatiza que cualquier medida de seguridad debe anticiparse a las capacidades potenciales de la IAG. Su advertencia es clara: si la IAG progresa hacia una autonomía total sin un control efectivo, la humanidad podría no tener tiempo para detenerla si surge una amenaza. Armstrong sostiene que desarrollar métodos de control y sistemas de protección efectivos no solo es recomendable sino esencial. Sin ellos, la humanidad corre el riesgo de enfrentarse a una IAG autónoma que podría representar una amenaza fatal para la seguridad humana.


  2. Ética y establecimiento de objetivos


    En Compatible con humanos Stuart Russell aborda una cuestión igualmente crítica: ¿cómo podemos incorporar valores humanos a un sistema de IAG? Insiste en que no podemos permitir que la IA decida por sí sola qué es importante, ya que la IAG podría interpretar los objetivos fijados por los humanos de maneras completamente imprevistas. Russell sostiene que sin una base moral sólida y la protección de los intereses humanos, la IAG podría actuar de manera impredecible. En última instancia, esto significa que cualquier sistema de IAG debe basarse en valores que reflejen no solo objetivos técnicos sino principios fundamentales cruciales para el bienestar humano.


  3. Cooperación global


    En Gobernanza de la IA: una agenda de investigación Allan Dafoe subraya la importancia de los acuerdos y estándares internacionales para evitar una carrera por el dominio de la AGI, en la que cada país buscaría obtener una ventaja. Dafoe afirma que solo a través de estándares internacionales podemos minimizar el riesgo de que alguien comprometa la seguridad por velocidad o ventaja competitiva. Una carrera por la AGI podría tener consecuencias catastróficas, y Dafoe sostiene que solo los esfuerzos unidos de las naciones pueden prevenir este escenario, creando estándares seguros que aseguren nuestro futuro.


  4. Tecnologías de control y aislamiento


    Nick Bostrom, en Superinteligencia: caminos, peligros y estrategias Bostrom lleva esta idea más allá, haciendo hincapié en la necesidad de contener y "encasillar" la IAG para evitar que interactúe directamente con el mundo. Bostrom advierte que si la IAG obtuviera acceso irrestricto a los recursos, sus acciones autónomas podrían salirse de control. Propone conceptos de aislamiento en los que la IAG no puede eludir las limitaciones preestablecidas, "encajándola" efectivamente dentro de un sistema controlado. Este aislamiento, sugiere, podría servir como la barrera final para protegernos si todo lo demás falla.


Así pues, la idea de crear una inteligencia artificial artificial plantea preguntas profundas a las que la humanidad nunca se ha enfrentado antes: ¿cómo podemos vivir junto a una forma de inteligencia que podría superarnos en pensamiento, adaptabilidad e incluso habilidades de supervivencia? La respuesta no está sólo en la tecnología, sino también en cómo abordamos la gestión de esta inteligencia y nuestra capacidad de cooperar a escala global.


Hoy en día, los optimistas ven la IA general como una herramienta que podría ayudar a resolver los mayores desafíos del mundo. Señalan ejemplos de IA limitada que ya están ayudando a la humanidad en áreas como la medicina, la ciencia y la investigación climática. Pero ¿deberíamos confiar en la creencia de que siempre mantendremos esta tecnología bajo control? Si la IA general se vuelve verdaderamente independiente, capaz de aprender por sí sola y cambiar sus objetivos, podría cruzar los límites que intentamos establecer. En ese caso, todo lo que alguna vez consideramos útil y seguro podría convertirse en una amenaza.


La idea de la cooperación global, que algunos expertos defienden, también conlleva muchos desafíos. ¿Puede la humanidad superar las diferencias políticas y económicas para crear principios y normas de seguridad unificados para la inteligencia artificial general? La historia demuestra que las naciones rara vez se comprometen a una cooperación profunda en cuestiones que afectan a su seguridad y soberanía. El desarrollo de armas nucleares en el siglo XX es un claro ejemplo. Pero con la inteligencia artificial general, los errores o los retrasos podrían ser aún más destructivos, ya que esta tecnología tiene el potencial de superar el control humano en todos los sentidos.


¿Y si los pesimistas tienen razón? Ahí es donde reside el mayor riesgo existencial, un temor planteado por personas como Elon Musk y Yuval Noah Harari. Imaginemos un sistema que decide que la vida humana es sólo una variable en una ecuación, algo que puede alterar o incluso eliminar en aras de un camino “más racional”. Si un sistema así cree que su existencia y sus objetivos son más importantes que los nuestros, nuestras posibilidades de supervivencia serían escasas. La ironía es que la IAG, diseñada para ayudarnos y resolver problemas complejos, podría convertirse en la mayor amenaza para nuestra existencia.


Para la humanidad, este camino exige un nuevo nivel de responsabilidad y previsión. ¿Seremos capaces de reconocer las consecuencias de crear una IA general y establecer estrictas medidas de seguridad, guiando su desarrollo en pos del bien común? ¿O el orgullo y la renuencia a seguir reglas compartidas nos llevarán a crear una tecnología sin vuelta atrás? Para responder a estas preguntas, no sólo necesitamos avances técnicos, sino también una comprensión profunda de la idea misma de un sistema inteligente, sus valores y principios, su lugar en nuestra sociedad y nuestro lugar en su mundo.


Pase lo que pase, la inteligencia artificial general puede ser una de las mayores pruebas de la historia de la humanidad. La responsabilidad de sus resultados recae sobre todos nosotros: científicos, responsables de políticas, filósofos y todos los ciudadanos que desempeñan un papel en el reconocimiento y apoyo de los esfuerzos por un futuro seguro.