paint-brush
Por qué el sesgo humano en ChatGPT y otros chatbots podría conducir a la interrupción socialpor@samueltreasure
2,378 lecturas
2,378 lecturas

Por qué el sesgo humano en ChatGPT y otros chatbots podría conducir a la interrupción social

por Samuel A. Akorede5m2023/02/22
Read on Terminal Reader

Demasiado Largo; Para Leer

Chatbot, ChatGPT, ha sido condenado por ser sesgado al tener "sesgo y rencores anticonservadores" contra el expresidente de los EE. UU., Donald Trump. El CEO de OpenAI, Sam Altman, tuiteó a principios de febrero abordando el problema. Admitió que ha habido "odio" dirigido a los empleados de OpenAI, que consideró "espantoso"
featured image - Por qué el sesgo humano en ChatGPT y otros chatbots podría conducir a la interrupción social
Samuel A. Akorede HackerNoon profile picture

La revolución de la IA, sin duda, ha sido responsable de nuevos inventos tecnológicos.

Su interrupción introdujo modelos de IA como chatbots y ChatGPT que actualmente están dando forma a la forma en que las personas viven, interactúan y socializan en el siglo XXI, lo cual es alucinante.

Solo dos meses después de su lanzamiento el año pasado, el chatbot de OpenAI, ChatGPT, registró más de 100 millones de usuarios en todo el mundo.

Siguiendo el ejemplo, Google también anunció el lanzamiento de Bard , un modelo conversacional impulsado por IA que brinda a las personas información fácil de digerir de los resultados de búsqueda.

Todos estos sirven como logros monumentales, que muestran cuán cerca está el desarrollo de la IA de asegurar a los humanos un estilo de vida fácil. Pero puede haber algunos lapsus.

El problema con la revolución de la IA

La creación de mejores formas de manejar los asuntos humanos con la ayuda de la IA tiene algunas implicaciones.

La aparición de modelos de IA de alto nivel como ChatGPT y otros chatbots avanzados ya representa una amenaza para los trabajos humanos.

Tarde o temprano, la IA secuestrará sigilosamente los trabajos humanos o hará que muchos trabajadores sean inútiles en sus campos.

Se postula que la interrupción del trabajo es inevitable a medida que se revoluciona la IA. Pero hay más a tener en cuenta, ya que estos modelos de IA se turnan para infiltrarse en la vida humana y cambiar el orden de las cosas.

Un problema potencial asociado con estas nuevas tecnologías (ChatGPT y otros Chatbots) que necesita una observación seria es cómo estos modelos pueden causar disrupción social.

Según el CEO de OpenAI, Sam Altman, uno de los principales problemas para combatir ChatGPT es el problema del sesgo.

El sesgo humano se ha identificado como un problema importante de ChatGPT y, por supuesto, no es exclusivo solo de ChatGPT de OpenAI.

Hay otros Chatbots con problemas selectivos de preferencia humana.

Estadísticas de sesgo de IA

La investigación de Tidio muestra que solo el 2% de las personas piensa que la IA está libre de sesgos; en contraste, el 45% de los encuestados piensa que el principal problema moderno de la IA es el sesgo social.

Esto significa que los chatbots de IA como ChatGPT y el resto aún carecen de equidad en su juicio y operación. Porque el prejuicio humano es ostensiblemente notable usando estos modelos de IA.

¿Qué es el sesgo de la IA (humana)?

El sesgo de IA es un problema de inteligencia artificial causado cuando se utilizan datos sesgados para entrenar un algoritmo modelo, lo que en última instancia afecta el juicio de la máquina.

Al explicar el papel del sesgo en la IA , Steve Nouri , director de Ciencia de datos e IA, afirmó que el sesgo humano en la IA se presenta en tres formas: sesgo de género, prejuicio racial y discriminación por edad.

Se considera que el sesgo humano en la IA es responsabilidad de los datos comprometidos o de los desarrolladores.

Esto demuestra que es casi imposible que un Chatbot provoque insultos raciales, derrame declaraciones hirientes o discrimine a un determinado grupo de personas por sí solo.

Excepto que hay un algoritmo sesgado o datos consumidos por el modelo.

Un buen ejemplo tiene que ser el cierre abrupto del chatbot de Microsoft Twitter , Tay, en 2016 después de que fue acusado de tener prejuicios raciales.

Incluso el modelo conversacional de OpenAI lanzado recientemente, ChatGPT, ha sido condenado por estar sesgado al tener "prejuicios y rencores anticonservadores " contra el expresidente de los EE. UU., Donald Trump.

Por qué el sesgo humano en los chatbots podría conducir a la interrupción social

El sesgo político que ChatGPT tenía sobre el expresidente Donald Trump generó fuertes críticas al modelo de IA y su empresa en desarrollo, OpenAI, en las redes sociales.

En respuesta al amplio asedio, el CEO de OpenAI, Sam Altman, tuiteó a principios de febrero abordando el problema. Según Sam, se están realizando ajustes para erradicar el sesgo de ChatGPT y mejorarlo.

En sus tuits, Sam admitió que ha habido “odio” dirigido a los empleados de OpenAI, que consideró “espantoso”.

También reveló que su empresa está trabajando para mejorar la configuración predeterminada del chatbot para promover la neutralidad y también para permitir que los usuarios usen los sistemas según sus preferencias individuales.

Pero esto no sucederá fácilmente. Incluso Sam admitió que el proceso es difícil y llevará tiempo implementarlo.

El sesgo político de ChatGPT condujo a ataques injustificados contra los empleados de OpenAI. Esa es una indicación suficiente para sopesar las consecuencias sociales de cualquier modelo de IA sesgado.

Los sesgos de la IA pueden imponer consecuencias nefastas a las personas y las comunidades. Puede conducir a la crítica injusta de un grupo de personas oa la discriminación, lo que indirectamente engendra animosidad o estallido social.

Por eso es importante no ignorar los sesgos en este momento, sino exigir soluciones viables.

Tal como lo dijo Sam, "atacar a otras personas" no tiene un efecto significativo para ayudar al avance del campo de la IA. Se debe prestar atención a las posibles opciones para reducir los sesgos de los chatbots de IA.

Cómo reducir el sesgo en los chatbots de IA

El sesgo humano en los chatbots de IA se debe al uso de algoritmos o datos sesgados y los desarrolladores de los modelos. Para evitar sesgos en la IA, se debe observar lo siguiente al crear chatbots:

Desarrolladores de Origen Diverso

El sesgo de algoritmo o sesgo de datos en IA es posible principalmente porque los desarrolladores, que son humanos, tienen un enfoque naturalmente sesgado.

Es fácil para un equipo de desarrolladores homogéneos construir un modelo de IA que favorezca o respalde sus puntos de vista y perspectiva sobre ciertos temas de la vida.

Para evitar que esto suceda, es necesario emplear un equipo de diversos científicos de datos que puedan ayudar en la observación y reducción del sesgo algorítmico.

Uso de datos sintéticos

El consumo de grandes cantidades de datos sin censura por parte de los modelos de IA lo hace sesgado. Una forma de erradicar el sesgo de los chatbots es garantizar que el modelo utilice datos sintéticos observados minuciosamente por los desarrolladores.

Transparencia

La reacción al sesgo descubierta por ChatGPT, OpenAI acordó que su nuevo chatbot de IA todavía tiene "problemas para mantener los hechos correctos y, en ocasiones, emite instrucciones dañinas".

La compañía de inteligencia artificial salió a limpiar para decirle a la gente por qué todavía no se puede confiar en el chatbot para obtener información importante o confidencial.

Esa es una forma de transparencia necesaria para frenar el sesgo humano en los chatbots. Al señalar las debilidades del modelo, la disrupción social se puede controlar antes de escalar.

Probar el modelo antes y después del desarrollo

Tal como se indicó, los desarrolladores deben probar el modelo antes y después de haberlo desarrollado.

Esto podría tomar mucho tiempo para evaluar las funciones del chatbot y abordar cualquier forma de sesgo que pueda surgir en la causa de la prueba.

Permitir que los científicos de datos estudien de cerca los datos que el chatbot de IA necesita para funcionar y perfeccionar cómo esperaba que el modelo respondiera o construyera la información que degenera debería ser un examen obligatorio para realizar después del desarrollo.

Conclusión

ChatGPT, como cualquier otro chatbot, aún está lejos de estar libre de prejuicios humanos. Es un problema fundamental creado tanto por los datos con los que se entrena la IA como por las preferencias personales de los desarrolladores.

Una vez que los desarrolladores y los equipos de ciencia de datos comiencen a ser clínicos y objetivos en su enfoque de la recopilación de datos utilizados por estos modelos de IA, el sesgo de IA comenzará su viaje hacia la extinción.