¿Ha terminado el período de luna de miel de ChatGPT?
ChatGPT ha conquistado el mundo desde su lanzamiento el año pasado. Sin embargo, una encuesta reciente encontró que
¿Por qué las empresas se resisten a ChatGPT?
No es que duden de sus capacidades. En cambio, les preocupan los posibles riesgos de ciberseguridad.
Las herramientas de IA generativa están diseñadas para aprender de cada interacción. Cuantos más datos les proporciones, más inteligentes se volverán. Suena genial, ¿verdad?
Pero hay un área gris respecto a dónde van los datos, quién los ve y cómo se utilizan.
Estas preocupaciones sobre la privacidad llevaron a la autoridad italiana de protección de datos
Para las empresas, la preocupación es que ChatGPT pueda tomar información enviada por los usuarios, aprender de ella y potencialmente dejarla escapar en futuras interacciones con otros usuarios.
Las pautas de OpenAI para ChatGPT indican que los datos del usuario podrían revisarse y utilizarse para perfeccionar el sistema. Pero ¿qué significa esto para la privacidad de los datos?
La respuesta no es clara y eso es lo que causa la ansiedad.
Un estudio de Cyberhaven encontró que para el 1 de junio, el 10,8% de los trabajadores utilizaban ChatGPT en el trabajo y el 8,6% ingresaba información de la empresa. La estadística alarmante es que el 4,7% de los trabajadores han ingresado información confidencial en ChatGPT.
Y debido a la forma en que funciona ChatGPT, faltan las medidas de seguridad tradicionales. La mayoría de los productos de seguridad están diseñados para evitar que los archivos se compartan o carguen. Pero los usuarios de ChatGPT copian y pegan contenido en sus navegadores.
Ahora, OpenAI ha agregado una opción de exclusión voluntaria. Los usuarios pueden solicitar que sus datos no sean utilizados para formación posterior.
Pero la exclusión voluntaria no es la configuración predeterminada. Entonces, a menos que los usuarios sean conscientes y tomen medidas proactivas, sus interacciones podrían usarse para entrenar la IA.
Las preocupaciones no terminan ahí.
Incluso si opta por no participar, sus datos seguirán pasando por el sistema. Y aunque OpenAI garantiza a los usuarios que los datos se gestionan de forma responsable, ChatGPT
También existe el riesgo de que algo salga mal.
El 21 de marzo de 2023, OpenAI cerró ChatGPT debido a una falla que tituló incorrectamente los historiales de chat con nombres de diferentes usuarios. Si estos títulos contenían detalles privados o confidenciales, es posible que otros usuarios de ChatGPT los hayan visto. El error también expuso los datos personales de algunos suscriptores de ChatGPT Plus.
La primera gran filtración de datos de ChatGPT se produjo a principios de este año e involucró al gigante tecnológico Samsung . Según Bloomberg, el código fuente interno confidencial fue
Una fuga como esta puede tener graves implicaciones.
Y no fue sólo Samsung. Amazon , otro titán de la industria tecnológica, tenía sus propias preocupaciones. La empresa
Si ChatGPT tiene datos propiedad de Amazon, ¿qué le impide divulgarlos inadvertidamente a sus competidores?
La rápida evolución y adopción de herramientas de IA generativa han dejado a los organismos reguladores tratando de ponerse al día. Existen pautas limitadas sobre el uso responsable.
Entonces, si hay una filtración de datos debido a la IA, ¿quién es el responsable: la empresa que utiliza la herramienta, los empleados o el proveedor de la IA?
En OpenAI
Eso pone el riesgo en las empresas. Sin regulaciones claras, deben decidir cuál es el mejor curso de acción. Por eso ahora muchos dudan más.
Cuando se trata de implementar nuevas tecnologías, las empresas suelen recurrir a los líderes tecnológicos. Si un gigante tecnológico adopta una nueva innovación, a menudo se considera una luz verde para que otras empresas sigan su ejemplo.
Entonces, cuando una empresa tan influyente como Microsoft ofrece señales contradictorias con respecto a una tecnología, las repercusiones se sienten en todas las industrias.
Por un lado, Microsoft ha expresado reservas sobre el uso de herramientas de IA generativa. En enero, Microsoft advirtió a los empleados que no compartieran "datos confidenciales" con ChatGPT.
Pero Microsoft también defiende su propia versión de la tecnología, Azure ChatGPT. Esta iteración promete un entorno más seguro y controlado para los usuarios corporativos.
Este movimiento plantea preguntas: ¿Azure ChatGPT es realmente inmune a los riesgos que Microsoft ha señalado en el panorama más amplio de la IA generativa? ¿O se trata de una maniobra estratégica para garantizar que las empresas permanezcan dentro del ecosistema de Microsoft?
Al evaluar cualquier tecnología nueva, las empresas a menudo se ven atrapadas en un tira y afloja entre los posibles beneficios y los posibles peligros.
Con ChatGPT, las empresas parecen estar adoptando un enfoque de esperar y ver.
A medida que la tecnología y sus regulaciones evolucionan, la esperanza es que se pueda establecer un uso más seguro y transparente.
Por ahora, ChatGPT es excelente para obtener un poco de ayuda y contenido sobre codificación. Pero no le confiaría datos propietarios.