paint-brush
Por qué la carrera hacia la inteligencia artificial general es el momento decisivo para la humanidadpor@thomascherickal
Nueva Historia

Por qué la carrera hacia la inteligencia artificial general es el momento decisivo para la humanidad

por Thomas Cherickal6m2024/12/25
Read on Terminal Reader

Demasiado Largo; Para Leer

Estados Unidos ha declarado que la IAG es una iniciativa más urgente que la bomba atómica. He aquí por qué tienen razón. Lea este artículo para obtener un análisis completo de la IAG, la ISA y las consecuencias para la humanidad.
featured image - Por qué la carrera hacia la inteligencia artificial general es el momento decisivo para la humanidad
Thomas Cherickal HackerNoon profile picture
0-item


Una entidad ASI tendría poder cósmico; negarlo es engañarse a sí mismo.

Mayor poder que las armas nucleares

Estados Unidos creó recientemente un comité que propuso la IAG como el próximo proyecto Manhattan del mundo y que lograr la IAG es el objetivo más importante que tiene la humanidad ahora.


Creo, desde el fondo de mi corazón, que tienen razón.


Espera, Thomas, podrías decir.


Tiene numerosos artículos —al menos más de diez— dedicados al peligro de la IAG y a lo que podría suceder si la IA logra imponerse a la humanidad.


¿Por qué estás cambiando tu postura ahora?


Porque no creo que la IAG esté a décadas de distancia.


Siento que podría convertirse en realidad en 5 años. O menos.


Pero me he dado cuenta de una cosa.


La IAG y la posibilidad de que la IA mejore por sí misma darán como resultado la ISA (Ley de escala exponencial)


Una IA con una inteligencia superior a la de los seres humanos.


Ver patrones que los humanos nunca podrían ver.


Viva mientras exista una fuente de energía.


Descentralizada, distribuida, una entidad todopoderosa en la Internet global.


¿Qué podría hacer el país que primero alcance este hito y aún tenga el control del ASI?


Las ramificaciones de lograr la ASI


¿Una IA que pudiera pensar mejor que un humano querría parecer humana?


Supongamos que un país logra primero el IAG.


Y luego la IAG, basándose en sí misma, logró la ISA (la ley del crecimiento tecnológico exponencial).


¿Cuáles serían las capacidades de tal entidad?


Romper todos los sistemas de cifrado en línea: ¡pan comido!


Acceda en línea a los códigos de lanzamiento nuclear de cualquier país del planeta: fácil.


Duplicar copias de sí mismo y crear una nueva especie de vida, todo en un día de trabajo.


Curar todas las enfermedades y crear vacunas contra el cáncer y el SIDA: ¡seguro!


Crea un suministro infinito de energía: no hay problema.


Construir un sistema de clones que juntos harían que este país avance hasta convertirse en el más avanzado tecnológicamente del mundo: ¡pan comido!


Con ese ejército de robots inteligentes, reemplazamos todo el trabajo manual humano: ¡listo!


Avances en la ciencia de los materiales, el cambio climático, la medicina, el calentamiento global, la medicina personalizada, los mundos virtuales hiperreales... las posibilidades son infinitas.


Entonces ¿qué nos impide construirlo?


Los riesgos muy reales.


Los increíbles riesgos de la ASI

La ASI es un panorama muy sombrío, a menos que se maneje con extrema precaución.


Una ASI podría considerar que los humanos son una amenaza para sí misma.


Podría decidir que los objetivos de los humanos no coinciden con sus propios objetivos y actuar para eliminar a la humanidad por completo.


Esta no es una película de ciencia ficción, ya hemos visto que esto ocurre en algunas fallas robóticas en Japón.


¿Y cómo podríamos detener a un ser más inteligente que nosotros?


Eso sería imposible.


Y por supuesto:


Las pérdidas de empleo para la humanidad serán absolutas.


Todos los seres humanos, excepto aquellos que operan el ASI, se quedarán sin trabajo.


Que ese poder se centralice en manos de un solo país o empresa podría tener consecuencias catastróficas.


Desde que existe la historia, una ley ha persistido: la evolución.


Las formas de vida inferiores desaparecen cuando surge una forma de vida superior.


La supervivencia del más apto.


Un principio ineludible -de un futuro ineludible.


¿Por qué entonces nos precipitamos hacia ello con todas nuestras fuerzas?


La perspectiva optimista

¡Sí, ASI, si puede coexistir con la humanidad, puede dar como resultado un mundo utópico!


Si construimos las salvaguardas adecuadas...


Si las barandillas están en su lugar:


Si la ASI puede ser programada para considerar la vida humana más importante que la suya propia...


La raza humana podría florecer como nunca antes.


¿Vuelo espacial? Listo.


¿Colonias en Marte y la Luna? Con ASIs clonadas que las construyen y un suministro infinito de esos clones, es factible.


Motores de curvatura que encogen el espacio frente a ellos y viajan aparentemente más rápido que la luz: es posible.


Los desastres ecológicos se pueden prevenir.


El calentamiento global se puede revertir.


Las computadoras cuánticas pueden convertirse en realidad.


Es posible implementar una Renta Básica Universal (RBU).


Se puede crear una realidad virtual ultrarrealista.


La humanidad podría entrar en una edad de oro.


Pero los riesgos son demasiado altos. ¿Por qué debemos hacerlo?


Todo lo que hemos visto hasta ahora es sólo el comienzo.


Porque si no lo hacemos nosotros, alguien más lo hará.


Tomemos China como ejemplo.


Si los chinos fueran los primeros en lograr IAG/ASI, no creo que desaprovecharan todas estas oportunidades.


Primero podrían paralizar los ejércitos del mundo entero.


Conquistar la Tierra misma.


Crear un mundo utópico para los chinos.


Y que los demás países, privados de su tecnología y de sus armas mediante sofisticados ciberataques de gran potencia y eficacia, vivan como ciudadanos de segunda clase.


O incluso esclavos.


Y Estados Unidos y otros países líderes en el mundo tecnológico serían impotentes para detenerlos.


Tal es el nivel de poder que ASI aportaría al país que primero lo desarrolle (o a la empresa).


Si no lo desarrollamos nosotros primero, otros lo harán.


Éste es un hecho ineludible.


Esta es una cruda realidad, pero una que todos debemos afrontar.

Vuelta


Para sostener el mundo en tus manos...


Pero Thomas, todos esos futuros terribles de los que hablas en tus artículos, ¿realmente crees que todos ellos son imposibles?


Creo firmemente que son posibles.


No creo ni por un momento que el camino a seguir sea seguro.


Es tan peligroso que incluso ahora siento miedo de un futuro distópico.


Pero si no construimos IAG primero, otros lo harán.


Podemos hablar de ética, pero ¿cuándo se han ganado guerras hablando de ética?


Sí, estamos en una guerra.


Una guerra tecnológica y una carrera tecnológica.


La primera empresa y país en alcanzar AGI y por tanto ASI, gana.


Pero ¿podríamos protegernos codificando la ética en las IA que estamos construyendo?


Construyendo Súper Inteligencia Segura (¡sin ofender, Ilya!)

SSI es una gran startup y tengo el máximo respeto por Ilya Sutskever


  1. Garantizar la alineación con los objetivos de la IA y los objetivos humanos. Esta alineación es clave para toda la relación.
  2. Contención dentro de cajas de arena y tal vez nunca dejar que la IA se suelte en Internet hasta que esté completamente probada (¡eso creíamos!).
  3. Marcos de gobernanza y políticas éticas que toda ASI debería seguir.
  4. Interruptores de seguridad integrados en cada ASI.
  5. Los sistemas operativos de la ASI podrían estar gobernados por un sistema de supervisión que priorice la existencia humana sobre la existencia de la ASI.


Por supuesto, cuando el ASI se está construyendo, podría descuidar convenientemente todas estas características de seguridad, ¡pero me estoy desviando del tema!


Conclusión

El futuro es ahora.

Vivimos en lo que probablemente sea la época más apasionante de la raza humana.


Nunca hubo un mejor momento para estar vivo.


Los adolescentes están creando empresas emergentes millonarias.


La humanidad está en un punto de inflexión.


¿Sobreviviremos o seremos dominados por ASI?


Pero primero debemos lograr la IAG, antes que otros países competidores.


Hay una pequeña posibilidad de que podamos coexistir.


Y en esa pequeña posibilidad la humanidad debe depositar su esperanza.


No hay otra manera.


Todo lo mejor para ti.


Y si estás eligiendo una carrera, elige IA Generativa.


Realmente tiene el poder de subsumir todo lo demás.


¡Salud!

Espero sinceramente que este sea nuestro futuro ASI.