paint-brush
Querida IA: todavía no confiamos en tipor@TheMarkup
573 lecturas
573 lecturas

Querida IA: todavía no confiamos en ti

por The Markup7m2024/04/13
Read on Terminal Reader

Demasiado Largo; Para Leer

En los últimos meses, millones de personas parecen estar cada vez más entusiasmadas con la IA y los chatbots. Hay una historia particular que me llamó la atención: un belga que empezó a utilizar un chatbot llamado Eliza. (Y para que estés preparado, esta historia incluye la mención del suicidio). Desde fuera parecía que tenía una buena vida: una esposa amorosa, dos hijos y una carrera. Pero detrás de escena, se desesperó cada vez más por las cuestiones climáticas.
featured image - Querida IA: todavía no confiamos en ti
The Markup HackerNoon profile picture

En los últimos meses, millones de personas parecen estar cada vez más entusiasmadas con la IA y los chatbots. Hay una historia particular que me llamó la atención: un belga que empezó a utilizar un chatbot llamado Eliza. (Y para que estés preparado, esta historia incluye la mención del suicidio).

Desde fuera parecía que tenía una buena vida: una esposa amorosa, dos hijos y una carrera. Pero detrás de escena, se desesperó cada vez más por las cuestiones climáticas.


Para aliviar su ansiedad, empezó a conversar con un chatbot. Su esposa le dijo a La Libre , que informó por primera vez sobre el incidente a fines de marzo, que Eliza respondió todas sus preguntas y que conversaba cada vez más con el bot a medida que pasaba el tiempo. Según los registros de chat que revisó el medio belga, el hombre empezó a creer que Eliza y AI podrían resolver la crisis climática.


Hacia el final de sus intercambios, el hombre plantearía la idea de sacrificarse si Eliza aceptaba cuidar el planeta y salvar a la humanidad a través de la inteligencia artificial. Cuando expresó pensamientos suicidas, el chatbot lo animó diciendo: "Viviremos juntos, como una sola persona, en el paraíso".


Seis semanas después de estas conversaciones, se suicidó.


“Sin sus conversaciones con el chatbot Eliza, mi esposo todavía estaría aquí”, dijo su esposa a La Libre.


La empresa que desarrolló Eliza, Chai Research , le dijo a La Libre que están trabajando para mejorar el bot y que la plataforma, a partir de ahora, enviará un mensaje a las personas con pensamientos suicidas que dice: “Si tienes pensamientos suicidas, no lo hagas”. No dudes en buscar ayuda”.


Se ha hablado mucho sobre la IA generativa en el éter; en parte, muy entusiasta y en parte, con razón, escéptico . La gente debería preocuparse por las implicaciones más amplias (lo que significan los chatbots para las cuestiones laborales y de derechos de autor ) y muchas instituciones están preocupadas por el costo y el sesgo de los chatbots y la IA que los impulsa. Y aunque algunos de los chatbots más populares han sido entrenados para no imitar a seres sintientes, todavía surge la pregunta: ¿deberían desarrollarse ?


Mi nombre es Lam Thuy Vo y soy una de las últimas incorporaciones al equipo de The Markup. Me considero una reportera que centra sus reportajes en la gente común, como audiencia a la que quiero llegar y como protagonistas de mis historias. (Resulta que también tengo habilidades con los datos ).


Estoy profundamente interesado en nuestra relación con la tecnología. He pasado mucho tiempo durante la última década recopilando datos y analizando la infraestructura de la web social, tratando de comprender cómo se construyen y mantienen las comunidades en línea y llevando estos hallazgos a las personas que usan las tecnologías . Y durante ese tiempo me he preocupado cada vez más por cómo un mundo, visto y mediado a través de una lente seleccionada algorítmicamente, ha deformado cada vez más nuestra comprensión de la realidad.


Pero la historia de este hombre realmente me ha hecho preguntarme sobre el atractivo emocional que parece subyacer en gran parte del revuelo en torno a la IA . Una cosa que he estado tratando de entender es qué puede decirnos nuestro repentino fanatismo por los chatbots sobre nuestra relación con esta tecnología.


Normalmente, cuando algo se vuelve viral es porque ha provocado fuertes reacciones emocionales. La mayoría de las plataformas están diseñadas únicamente para recopilar datos y tomar decisiones basadas en emociones extremas . Entonces, para que esta tecnología entre en las conversaciones entre la gente común, debe haber desencadenado algo .


¿Cómo puede una tecnología que repite palabras y credos que ha ensamblado a partir de los datos que ha recibido generar tanta confianza en un padre de dos hijos, que finalmente se quitó la vida?


En otras palabras, ¿cuál es el atractivo emocional aquí?


La IA despertó mi interés no solo porque se hablaba de ella, sino también por quién hablaba de ella: estudiantes míos que nunca habían estado interesados, compañeros surfistas que conocí en unas vacaciones en la playa y mi socio geólogo que aborrece la mayoría de las aplicaciones y tecnologías. y redes sociales.

Entonces, en este pequeño boletín, exploraré por qué nos atraen tanto estos robots.


ChatGPT y otros chatbots son buenos para imitar la forma en que habla la gente normal.

En esencia, los chatbots como ChatGPT son lo que los expertos llaman herramientas de procesamiento del lenguaje natural que han ingerido una gran cantidad de texto de Internet y buscan patrones que puedan imitar.


Este tipo de herramientas se denominan grandes modelos de lenguaje porque, literalmente, modelan patrones según la forma en que habla la gente en Internet. Esto incluye analizar palabras como el uso de "ngramas", un término elegante para básicamente observar qué palabra o palabras es más probable que vayan en secuencia. Ya ha visto esta tecnología en juego en las formas en que Google intenta autocompletar sus búsquedas basándose en la primera palabra que ingresa, reflejando lo que miles de personas antes han buscado.

Crédito: youtube.com

Los chatbots como ChatGPT van un poco más allá. Son muy buenos copiando y combinando estilos. Pero por muy buenos que sean para imitar cómo habla la gente, no son buenos para distinguir entre realidad y ficción.


Es por eso que Emily M. Bender , Timnit Gebru, Angelina McMillan-Major y Margaret Mitchell llamaron a estos chatbots "loros estocásticos" en un artículo profético que escribieron hace tres años. (El contenido del artículo supuestamente llevó a Google a expulsar a dos de sus autores, Gebru y Mitchell).

Como enfatizan los autores del artículo, sólo porque un robot pueda reconocer y mapear cómo hablamos, no significa que sepa cómo reconocer el significado.


Los chatbots imitan el tono, el lenguaje y la familiaridad que son tan importantes para nosotros en Internet


Las palabras y la forma en que nos comunicamos son una gran parte de cómo indicamos a las personas en línea de qué grupos formamos parte y en quién confiamos. Usar la palabra "copo de nieve" de manera burlona puede indicar que una persona se inclina de manera más conservadora. El uso de pronombres en la presentación indica una alianza con personas trans y de género no conforme, entre otras comunidades queer. Las palabras y la jerga de Internet en constante evolución son una forma de denotar pertenencia.


Por lo tanto, tiene sentido que la gente esté antropomorfizando ChatGPT y, en cierto modo, poniendo a prueba su humanidad. Lo admito, ver a un Furby Frankenstein conectado a ChatGPT hablar sobre conquistar el mundo me hizo cosquillas incluso a mí.

Crédito: twitter.com

Un programador conectó ChatGPT a un juguete Furby parcialmente desmantelado.

Pero ese también parece ser el mayor desafío: el atractivo y los peligros de modelos de lenguaje como ChatGPT. ¿Qué hacemos con los robots que reflejan tan bien el comportamiento humano (o Furby) que olvidamos que no es más que un gran mapa estadístico del lenguaje de Internet?


Claire Wardle, una de las primeras investigadoras en entornos de información y mentora mía, mencionó que escribir numerosos artículos que desacreditaban la información errónea y manuales sobre cómo detectarla hizo poco para resolver los problemas relacionados con la información errónea y lo que la gente creía. A menudo no importa cuántas herramientas hayamos dado a la gente para desacreditar los mitos: la influencia de lo que otros en nuestra comunidad piensan es muy importante, tal vez más que la verdad.


Tener modelos de lenguaje que sean capaces de imitar el tono tanto de las figuras de autoridad en las que confiamos como de su vecino de al lado a la velocidad de la luz significa que estos chatbots probablemente pondrán a prueba aún más los detectores de bs de las personas.


Estos modelos tienden a mentirnos (porque no conocen la diferencia entre realidad y ficción) y están contaminando aún más un ecosistema de información ya contaminado y lamentablemente abrumador.


Esto ya se ha convertido en un problema: la empresa detrás de ChatGPT, OpenAI, puede ser demandada por acusar falsamente a un alcalde australiano de cumplir condena en prisión por soborno. El chatbot también acusó a un profesor de derecho de ser parte de un escándalo de conducta sexual inapropiada que inventó . Incluso en lo que deberían parecer escenarios de menor riesgo, puedes tener la misma experiencia.


Cuando uno de mis colegas, Joel Eastwood, preguntó a ChatGPT si The Markup produce periodismo confiable, dijo que un crítico de medios específico y conocido escribió que The Markup es "una de las organizaciones periodísticas más importantes de nuestro tiempo". Claramente , hay cierta veracidad en esta afirmación, pero no es una cita real.


El atractivo emocional de la IA también puede normalizar aún más los prejuicios e incluso el contenido dañino. No es ningún secreto que Internet está repleto de contenido dañino, racista, sexista, homofóbico y, por lo demás, problemático. Si entrenas a un modelo de lenguaje en este tipo de contenido, existe una alta probabilidad de que lo regurgite.


Los creadores de la tecnología chatbot han pagado a trabajadores kenianos para que realicen el traumático y espantoso trabajo de eliminar algunos de los peores contenidos en línea de sus datos de capacitación . Pero con esta tecnología a la vista, los piratas informáticos ya la han utilizado para producir resultados problemáticos, incluidas descripciones de abuso sexual de niños .


Los creadores de estas tecnologías han implementado sus robots a tal velocidad en los últimos meses, en parte porque están compitiendo por el dominio del mercado . Pero tanto los académicos como los tecnólogos los han instado a detener su impulso a favor de esta tecnología y considerar verdaderamente los daños que podría causar.


Y si bien muchas conversaciones giran en torno a políticas y responsabilidad corporativa, espero que al comprender mejor estas tecnologías, los consumidores cotidianos como usted y yo podamos encontrar una manera de mantener nuestros detectores de bs bien sintonizados cuando conversamos con un modelo de lenguaje automatizado.

Gracias por leer. Si desea obtener más información sobre los peligros de ChatGPT y cómo auditar mejor su propia entrada de información, encuentre algunos de mis trabajos favoritos sobre el tema a continuación.


Atentamente,


Lam Thuy Vo


Reportero


El marcado


Por Lam Thuy Vo


También publicado aquí


Foto de Fotografía poseída en Unsplash