paint-brush
¿Estamos moralmente obligados a adoptar la IA?por@corhymel
1,141 lecturas
1,141 lecturas

¿Estamos moralmente obligados a adoptar la IA?

por Cory Hymel8m2024/04/20
Read on Terminal Reader

Demasiado Largo; Para Leer

Frank Chen, segundo desde la izquierda, en el panel de IA en el que se planteó la pregunta. Créditos: Gigster
featured image - ¿Estamos moralmente obligados a adoptar la IA?
Cory Hymel HackerNoon profile picture
0-item

Hace cinco años, Frank Chen planteó una pregunta que desde entonces se me ha quedado grabada todos los días. La pregunta era la siguiente: "Si los coches autónomos son un 51% más seguros, ¿no estamos moralmente obligados a adoptarlos?". He planteado esta pregunta muchas veces durante los últimos cinco años y, por lo general, una reacción instintiva conduce a un debate interesante. Lo que hace que esta pregunta sea tan grandiosa es el filo de la navaja: no es 99% más seguro, no es 70% más seguro, es sólo 51% más seguro.


Para ponerlo en contexto. La Administración Nacional de Seguridad en las Carreteras ha informado que en 2022 se estimaron 42.795 muertes en accidentes de tránsito. El 50% de 42.795 son 21.398 personas y el 51% son 21.825 personas.


Eso significa que si los vehículos autónomos son un 51% más seguros, su uso salvaría la vida de 427 personas cada año. Se trata de 1,5 aviones Boeing 777 llenos de pasajeros.


¿Salvar 427 vidas es un argumento moral a favor de la adopción?


En los cinco años que llevo compartiendo esta pregunta, las respuestas nunca son simples. Siempre están llenos de preguntas sobre "qué pasaría si". Pero incluso si las respuestas carecen de claridad, creo que la pregunta es increíblemente importante. En parte porque abre un debate más amplio (e igualmente importante) sobre el imperativo moral de la adopción de la IA en muchos aspectos de nuestras vidas y nuestro trabajo. Porque, después de todo, evitar tecnología que podría salvar vidas puede ser tan éticamente problemático como adoptar tecnología demasiado apresuradamente.


El imperativo moral de la adopción de la IA


Siempre he encontrado que el debate sobre los vehículos autónomos es un microcosmos perfecto para el discurso más amplio sobre la IA. Si poseemos tecnología que es estadísticamente más segura que los vehículos operados por humanos, ¿no es obvia la elección moral?


Considera esto: estudios han demostrado que los conductores humanos tenían una mayor tasa de accidentes con un riesgo significativo de lesiones que los automóviles autónomos (impulsados por IA). Específicamente, los conductores humanos causaron 0,24 lesiones por millón de millas (IPMM) y 0,01 muertes por millón de millas (FPMM), mientras que los vehículos autónomos causaron 0,06 IPMM y 0 FPMM.


Y recuerde, estos números no son sólo estadísticas. Representan vidas reales que podrían salvarse adoptando la tecnología de inteligencia artificial.


Pero ¿por qué limitarse a los vehículos autónomos? El potencial de la IA para mejorar la seguridad, la eficiencia y la precisión se extiende a campos como la medicina, la salud pública, la seguridad alimentaria, la agricultura, la ciberseguridad, la prevención del delito y la ciencia militar. Si la IA puede diagnosticar enfermedades con mayor precisión que los médicos humanos, predecir las malas cosechas antes de que devasten los suministros de alimentos o frustrar los ciberataques antes de que violen nuestros datos, ¿no tenemos la obligación moral de utilizar también esas tecnologías?


Por supuesto, estos son ejemplos dramáticos, pero el argumento se extiende más allá de los escenarios de vida o muerte. La capacidad de la IA para mejorar nuestra calidad de vida diaria es igualmente convincente. Ya sea simplificando las tareas mundanas o haciendo que la información y los servicios sean más accesibles y equitativos, la IA puede acabar con la monotonía y mejorar nuestra calidad de vida diaria. El imperativo moral de adoptar la IA no se trata sólo de prevenir daños o la muerte; se trata de si tenemos la obligación de contribuir al bienestar humano si podemos.

El dilema de elección y seguridad


Entonces, ¿elegimos vehículos operados por humanos (o procesos dirigidos por humanos) sabiendo que son menos seguros o eficientes que sus contrapartes de IA? ¿Simplemente porque son más humanos?


Ante la elección entre sistemas operados por humanos y alternativas mejoradas por IA, mi opinión es que la decisión obviamente debería depender de la seguridad y la eficiencia en lugar de una lealtad a alguna idea turbia de lo que es "humano" o no.


Adoptar la IA no significa ignorar el valor o el aporte humano; más bien, se trata de reconocer que lo que es humano no es inherentemente superior y, honestamente, a menudo es significativamente inferior en contextos específicos.


Ahora, por favor, no saquen las horcas, no me uniré al Equipo Robot Overlord. Entiendo la ansiedad que mucha gente siente por la disrupción que la IA ya está causando en sus trabajos y el cambio social que sin duda se avecina hacia nosotros. Sólo me pregunto si las eficiencias de la IA y los beneficios en la calidad de vida podrían, a largo plazo, compensar el impacto de esas disrupciones.


Parte de nuestra renuencia a adoptar la IA se debe a sesgos y miedos cognitivos. Para ser una especie famosa por su adaptabilidad, a los humanos no nos encanta el cambio.


Los sesgos cognitivos desempeñan un papel importante en nuestra vacilación a la hora de adoptar la IA. Los sesgos cognitivos son patrones psicológicos que son un vestigio de nuestros primeros años como Homo Sapiens. Son los hábitos en los que cae nuestra mente: atajos cognitivos que pueden ser útiles cuando huimos de los depredadores, pero que definitivamente distorsionan nuestra percepción y juicio modernos.


En este caso, reconocer y abordar estos sesgos es crucial para avanzar hacia un enfoque más racional y ético para la adopción de la IA. Aquí hay algunos que creo que podrían estar en juego, influyendo en nuestra sospecha, confianza o aceptación de las tecnologías de IA.

  • Sesgo de antropomorfismo: las personas tienden a atribuir características humanas a la IA o a los robots, lo que influye en su confianza y expectativas. Esto puede llevar a suposiciones poco realistas sobre las capacidades de los sistemas de IA o a la atribución de malas intenciones.

  • Heurística de disponibilidad: este sesgo lleva a los individuos a sobreestimar la probabilidad de eventos asociados con incidentes memorables o vívidos. Los informes sensacionalistas de los medios sobre fracasos o éxitos de la IA pueden exagerarse e influir desproporcionadamente en las percepciones de la confiabilidad y seguridad de la IA.

  • Sesgo de confirmación: ¿Qué están haciendo los demás? Las personas pueden buscar o interpretar información de una manera que confirme sus creencias o hipótesis preexistentes sobre la IA. Este sesgo puede obstaculizar la evaluación objetiva de las tecnologías de IA y sus posibles beneficios o riesgos.

  • FOMO: La gente no quiere perderse tecnologías beneficiosas, pero puede que no comprendan sus implicaciones. Este sesgo puede eclipsar la evaluación crítica y conducir a una adopción prematura. Este sesgo está relacionado con el efecto Bandwagon (por ejemplo, la tendencia a hacer o creer cosas porque todos los demás lo hacen, o las personas influyentes. Las personas pueden confiar o desconfiar de las tecnologías de inteligencia artificial simplemente porque ese parece ser el sentimiento popular).


  • Sesgo del status quo: las personas prefieren mantener el estado actual, lo que genera resistencia a adoptar algo nuevo como la IA, independientemente de los beneficios potenciales o la superioridad demostrada. Este sesgo puede frenar la innovación y la adopción de tecnologías que potencialmente mejoran la vida.


  • Aversión a la pérdida: este sesgo hace que el dolor de perder algo se sienta más potente que el placer de ganar algo de igual valor. Para la IA, esto significa que el miedo a perder el empleo o la pérdida de control eclipsa los beneficios de seguridad/eficiencia/conveniencia.

  • Sesgo de exceso de confianza: sobreestimación de la capacidad de uno para controlar o comprender algo. Para la IA, esto significa sobreestimar o subestimar los riesgos asociados con la IA.


  • Aversión/confianza en el algoritmo: ¡los números dan miedo! La gente tiende a estar predispuesta a los algoritmos, creyendo que la toma de decisiones humana es superior, incluso cuando la evidencia sugiere lo contrario. Por otro lado, algunos también podrían tener una confianza incuestionable en las decisiones de IA, ignorando el potencial de errores o sesgos en los sistemas de IA.


Racionalidad económica


Interesante, ¿verdad? Pero la verdad es que todo esto es académico. Es posible que al final ni siquiera lleguemos a tomar esta decisión. Las empresas ya lo están logrando.

Muchas corporaciones están avanzando rápidamente con la integración de la IA, principalmente porque el retorno de la inversión a menudo habla más que los debates éticos. Llevar Amazon como buen ejemplo, con su importante cambio hacia la automatización. La eficiencia y los beneficios económicos son tangibles y mensurables, y frente al dinero contante y sonante, las críticas morales y sociales de repente parecen más académicas.


Aun así, no se trata sólo de un capitalismo insensible; se trata de supervivencia y adaptación. Las empresas enfrentan cada día el desafío de equilibrar la adopción tecnológica con las responsabilidades éticas y ESG. El impacto de la IA en el empleo y el bienestar humano no puede quedar en segundo plano. Para miles de personas, la estabilidad financiera y el bienestar profesional dependen de estas decisiones. Es algo a lo que se enfrentan muchas empresas.


Y aquí es donde la cuestión del imperativo moral adquiere más matices. Si la IA puede optimizar las operaciones, reducir costos e incluso crear nuevas oportunidades, ¿no somos también moralmente responsables de explorar estas tecnologías?


El truco será mantener esa brújula ética a mano y garantizar que, al adoptar las eficiencias de la IA, también nos protejamos contra su potencial de alterar injustamente los medios de vida.

Estamos en un período de transición

De cualquier manera, debemos cuidar nuestro equilibrio. Estamos al borde de una nueva era, y un impulso sólido podría llevarnos a una caída libre. La IA ya no es una fantasía futurista; está absolutamente integrado en nuestra vida diaria y en nuestro trabajo. Eso es emocionante y aterrador.


Uno de los desafíos más importantes que enfrentamos es la accesibilidad o brecha tecnológica. La IA tiene el potencial de democratizar la tecnología, poniendo a disposición de un público más amplio herramientas poderosas. Sin embargo, en este momento, la promesa de la IA la ven principalmente aquellos que ya tienen un cierto nivel de acceso, por lo que también existe la posibilidad de que la IA exacerbe las desigualdades existentes en lugar de aliviarlas.


Es un período de ajuste, por lo que requerirá paciencia, educación y medidas proactivas para garantizar que los beneficios de la IA se distribuyan ampliamente. Tenemos el potencial de nivelar el campo de juego para que el potencial de la IA pueda desbloquearse para todos, no sólo para unos pocos privilegiados.



El enigma de la cooperación


Bien, entonces es una paradoja: para que la IA funcione de manera óptima junto con los humanos, debe ser superior a nosotros en ciertas tareas. Pero esa MISMA superioridad amenaza con desplazar los roles humanos, alimentando la resistencia y el miedo entre nosotros, los mortales.


Esta paradoja crea un duro tira y afloja para la IA; Por eso estamos viendo un debate tan acalorado sobre la moralidad. Creo que la solución puede ser un conjunto de filosofías y tecnologías de diseño emergentes destinadas a cerrar la brecha entre la IA y la cooperación humana de una manera ética. Los enumeraré a continuación. Vale la pena preguntarle a ChatGPT sobre:


  • Diseño de IA centrado en las personas (HCAI): garantiza que los sistemas de IA se desarrollen teniendo en cuenta las necesidades y los valores humanos.

  • IA explicable (XAI): desmitifica las decisiones de IA, haciéndolas comprensibles y transparentes para los humanos.

  • Marcos éticos de IA: guiar el desarrollo y la implementación de sistemas de IA de una manera que respete los derechos y valores humanos.

  • IA adaptable/receptiva: aprende y se adapta a la retroalimentación humana, asegurando una relación sinérgica.

  • Diseño participativo: involucra a los usuarios finales en el proceso de desarrollo de la IA, garantizando que se aborden sus necesidades e inquietudes.

  • Inteligencia aumentada: enfatiza el papel de la IA para mejorar las habilidades humanas en lugar de reemplazarlas.

  • IA confiable: genera confianza en los sistemas de IA a través de confiabilidad, seguridad y garantías éticas.

¿Coches autónomos o no autónomos?


Para concluir, adoptaré una postura. Creo que adoptar la IA es un imperativo moral. En mi opinión, el potencial de salvar vidas, mejorar nuestra calidad de vida e incluso abordar desigualdades de larga data es demasiado importante como para ignorarlo. Sin embargo, esto no significa que debamos lanzarnos de cabeza sin consideración alguna. En mi opinión, debemos abordar la IA con una mezcla de entusiasmo y cautela, manteniéndonos entusiasmados por explorar sus posibilidades pero conscientes del impacto ético, social y económico.


Una consideración cuidadosa, marcos éticos sólidos y una gobernanza estricta son las claves para desbloquear el potencial de la IA de manera responsable.


Todavía estoy abierto al debate sobre el tema. Entonces, te haré la pregunta. Responde aquí o en mi Hilo de LinkedIn y dime por qué estoy equivocado o en lo cierto. Invito a sus pensamientos y comentarios sobre este complejo tema.


¿Estamos preparados para adoptar la IA con la seriedad moral que exige?

¿Estás listo para emprender tu próximo viaje por carretera en un coche autónomo?