paint-brush
A medida que aprendemos a usar la IA, está aprendiendo a usarnos a nosotrospor@thesociable
775 lecturas
775 lecturas

A medida que aprendemos a usar la IA, está aprendiendo a usarnos a nosotros

por The Sociable5m2023/07/29
Read on Terminal Reader

Demasiado Largo; Para Leer

El historiador Yuval Noah Harari le dijo a la Cumbre Global AI for Good de la ONU que "mientras estamos aprendiendo a usar la IA, ella está aprendiendo a usarnos". Harari opinó que la IA debe continuar desarrollándose, pero que no debe implementarse sin controles de seguridad y reglamentos El historiador comparó el desarrollo de la IA con tener un virus en el laboratorio y dijo que está bien desarrollarlo, pero no distribuirlo al público.
featured image - A medida que aprendemos a usar la IA, está aprendiendo a usarnos a nosotros
The Sociable HackerNoon profile picture


El historiador Yuval Noah Harari le dice a la Cumbre Global AI for Good de la ONU que “mientras estamos aprendiendo a usar la IA, ella está aprendiendo a usarnos”, y que debemos ralentizar su implementación, no su desarrollo.


Hablando el jueves en la sesión de la Cumbre Global AI for Good de la Unión Internacional de Telecomunicaciones (UIT) de las Naciones Unidas sobre " Barandillas necesarias para una IA segura y responsable ", Harari opinó que la IA debe continuar desarrollándose, pero que no debe implementarse sin Controles y normas de seguridad.


“Mientras aprendemos a usar la IA, ella está aprendiendo a usarnos”

Yuval Noah Harari, cumbre mundial AI for Good, 2023


“Mientras aprendemos a usar la IA , está aprendiendo a usarnos a nosotros”, dijo Harari, y agregó: “Es muy difícil detener el desarrollo [de la IA] porque tenemos esta mentalidad de carrera armamentista . Las personas son conscientes, algunas de ellas, de los peligros, pero no quieren quedarse atrás.


Pero lo realmente crucial, y esta es la buena noticia, lo crucial es ralentizar el despliegue, no el desarrollo ”, agregó.


El historiador comparó el desarrollo de la IA con tener un virus en el laboratorio y dijo que está bien desarrollarlo, pero no distribuirlo al público.


“Es como si tuvieras este virus muy peligroso en tu laboratorio, pero no lo lanzas a la esfera pública; está bien"

Yuval Noah Harari, cumbre mundial AI for Good, 2023


“Puedes tener una herramienta de IA extremadamente sofisticada en tu laboratorio siempre y cuando no la implementes en la esfera pública. Esto es menos peligroso”, dijo Harari.


“Sabes, es como si tuvieras este virus muy peligroso en tu laboratorio, pero no lo lanzas a la esfera pública; está bien. Ahí hay un margen de seguridad”.


Así como las compañías farmacéuticas y los fabricantes de automóviles deben pasar por controles de seguridad, Harari argumentó que lo mismo debería aplicarse a la IA.


“Ahora es posible, por primera vez en la historia, crear miles de millones de personas falsas […] Si no puedes saber quién es un humano real y quién es un humano falso, la confianza se derrumbará y, al menos, la sociedad libre. ”

Yuval Noah Harari, cumbre mundial AI for Good, 2023


Sobre el tema de los deepfakes y bots generados por IA, Harari dijo: “ Ahora es posible, por primera vez en la historia, crear personas falsas , crear miles de millones de personas falsas, con las que interactúas con alguien en línea y no conoces. es un ser humano real o un bot.


“Probablemente en un año, en esta conversación que estamos teniendo ahora, será casi imposible estar seguro de si estás hablando con un deepfake o con un humano real.


“Si se permite que esto suceda, le hará a la sociedad lo que el dinero falso amenaza con hacerle al sistema financiero”.


“Deberíamos comprender mejor su impacto potencial [IA] en la sociedad, la cultura, la psicología y la economía del mundo antes de implementarlo en la esfera pública”

Yuval Noah Harari, cumbre mundial AI for Good, 2023


El historiador agregó que “si no puedes saber quién es un humano real y quién es un humano falso, la confianza se derrumbará y, con ella, al menos la sociedad libre. Tal vez las dictaduras puedan arreglárselas de alguna manera, pero las democracias no”.


Harari aclaró que crear personas falsas estaba bien siempre y cuando fueran etiquetados como tales y no se hicieran pasar por reales: "Necesito saber si es un humano real o no", dijo.


La Unión Internacional de Telecomunicaciones es el organismo especializado de las Naciones Unidas para las tecnologías de la información y la comunicación – TIC.



“Ya no somos almas misteriosas; ahora somos animales hackeables”

Yuval Noah Harari, Foro Económico Mundial, 2020



Harari ha hablado varias veces en las reuniones anuales del Foro Económico Mundial (WEF) en Davos, donde declaró: “Los humanos deberíamos acostumbrarnos a la idea de que ya no somos almas misteriosas; ahora somos animales hackeables”.


Hablando en el WEF en 2020 , Harari dijo: “Para piratear seres humanos se necesita mucho conocimiento biológico, mucha potencia informática y, especialmente, muchos datos.


“Si tienes suficientes datos sobre mí y suficiente poder de cómputo y conocimiento biológico, puedes hackear mi cuerpo, mi cerebro, mi vida. Puedes llegar a un punto en el que me conozcas mejor que yo mismo”.


Con este poder para piratear a los seres humanos, dijo Harari, “[puede] usarse para buenos propósitos, como proporcionar una atención médica mucho mejor, pero si este poder cae en manos de un Stalin del siglo XXI, el resultado será el peor totalitario”. régimen en la historia humana, y ya tenemos varios candidatos para el puesto de Stalin del siglo XXI”.


“No deberíamos regular la IA hasta que veamos algún daño significativo que realmente esté sucediendo, no escenarios imaginarios”

Michael Schwarz, Cumbre de Crecimiento WEF, 2023


Hablando en la Cumbre de Crecimiento WEF 2023 durante un panel sobre " Puntos críticos de crecimiento: aprovechar la revolución generativa de IA ", Michael Schwarz de Microsoft argumentó que cuando se trata de IA, sería mejor no regularla hasta que suceda algo malo, para no suprimir los beneficios potencialmente mayores.


Estoy bastante seguro de que sí, los malos actores utilizarán la IA; y sí, causará un daño real; y sí, tenemos que ser muy cuidadosos y estar muy atentos ”, dijo Schwarz al panel del WEF.


Cuando se le preguntó sobre la regulación de la IA generativa, el economista jefe de Microsoft explicó:

“¿Cuál debería ser nuestra filosofía sobre la regulación de la IA? Claramente, tenemos que regularlo, y creo que mi filosofía allí es muy simple.


Deberíamos regular la IA de manera que no tiremos al bebé con el agua del baño .

“Entonces, creo que la regulación no debe basarse en principios abstractos.


“Como economista, me gusta la eficiencia, así que primero, no deberíamos regular la IA hasta que veamos algún daño significativo que realmente está sucediendo, no escenarios imaginarios ”.


El 23 de enero de 2023, Microsoft amplió su asociación con OpenAI, los creadores de ChatGPT, invirtiendo $ 10 mil millones adicionales además de los "$ 1 mil millones que Microsoft invirtió en OpenAI en 2019 y otra ronda en 2021", según Bloomberg .



Este artículo fue publicado originalmente por Tim Hinchliffe en The Sociable.