Durante el año pasado, las nuevas empresas europeas de IA se pusieron al día con sus competidores extranjeros e introdujeron productos comparables al popular ChatGPT. Al centrarse en los avances y el desarrollo rápidos, las cuestiones relativas a la transparencia, la ética y el impacto en el usuario a veces quedan en un segundo plano. Sin embargo, es probable que esto cambie con la entrada en vigor de la Ley de IA de la UE, que debería comenzar a finales de 2024.
El
La Ley de IA de la UE clasifica los sistemas de IA por niveles de riesgo. Los sistemas etiquetados como de alto riesgo deberán seguir requisitos de transparencia, con evaluaciones obligatorias de los posibles impactos en la salud pública, la seguridad, los derechos humanos y el bienestar social. Se comprobarán sus sesgos garantizando que no sean discriminatorios y respeten los derechos humanos fundamentales.
Además, los desarrolladores de sistemas de alto riesgo estarán obligados a mantener documentación detallada, incluidos métodos de capacitación y conjuntos de datos, para demostrar el cumplimiento.
Los modelos básicos comparables a GPT-3.5 se regularán si necesitan al menos 10²⁵ flops de potencia informática para entrenarse. Por el contrario, habrá importantes concesiones en relación con los modelos de código abierto, lo que incentivará el desarrollo de este tipo de productos.
Además, la Ley de IA de la UE enumera los sistemas de IA prohibidos. Esto incluye la categorización biométrica utilizando características sensibles (por ejemplo, raza, religión, etc.), extracción de imágenes faciales, reconocimiento de emociones educativas y en el lugar de trabajo, puntuación social, manipulación del comportamiento humano y sistemas diseñados para explotar las vulnerabilidades humanas.
La ley también impone sanciones por incumplimiento, con sanciones que varían desde 7,5 millones de euros o el 1,5% de la facturación global de una empresa hasta 35 millones de euros o el 7% de la facturación, dependiendo de la infracción y el tamaño de la empresa.
Dado que es probable que la Ley Europea de IA entre en vigor a finales de 2024, es importante empezar a prepararse ahora, especialmente si su sistema está clasificado como
Recomendamos centrarse en todos los aspectos de la construcción del sistema, desde la preparación de los datos hasta la evaluación en profundidad del sistema.
Como se describe en la Ley de IA de la UE, las empresas serán responsables de mantener registros detallados de los conjuntos de datos. Esto obligará a las empresas a respetar la privacidad de los datos y mejorar la trazabilidad. Por ejemplo, si un sistema produce contenido dañino, se puede rastrear hasta datos inapropiados o textos sesgados en el conjunto de datos en el que fue entrenado.
Esto significa que los conjuntos de datos de entrenamiento deben considerarse cuidadosamente al prepararse para las nuevas reglas. Esto podría implicar filtrar y limpiar partes de los datos utilizados para la capacitación o incluso crear conjuntos de datos personalizados seleccionados por dominios y construidos específicamente para evitar sesgos comunes presentes en los datos extraídos.
Para cumplir con las nuevas reglas, las empresas que crean LLM deben invertir en alinear sus modelos con las expectativas humanas, centrándose en la veracidad, la utilidad y la inocuidad. Los principales métodos utilizados para la alineación LLM son
Ambos métodos recopilan las preferencias humanas por el resultado del modelo y utilizan estos datos para enseñarle al modelo cómo debería ser el resultado deseado. Podemos detener de manera bastante efectiva la mayoría de la creación de contenido dañino en esta etapa si proporcionamos al modelo los ejemplos correctos.
La evaluación de los sistemas de IA será una máxima prioridad y debe convertirse en parte del ciclo de desarrollo de productos. La sensación de tener un buen modelo debe ser sustituida por una estrategia de evaluación meticulosa y profunda.
Los sistemas de IA generativa son particularmente difíciles de evaluar porque el resultado no es determinista. El texto generado no se puede comparar automáticamente con una respuesta "correcta". La evaluación de tales sistemas implica retroalimentación humana que se centra en una variedad de aspectos como la corrección, la utilidad y la inocuidad.
Más a menudo los sistemas necesitan ser evaluados más allá de los niveles básicos mencionados anteriormente. Por ejemplo, al evaluar la nocividad, podríamos dividirla en categorías como prejuicios, incitación al odio, racismo, etc. De esa manera, podríamos descubrir a un nivel granular qué es necesario corregir en el sistema para minimizar su impacto negativo.
Sin duda, la Ley de IA de la UE es un paso importante en las regulaciones de IA y significa una nueva era de la IA, donde el desarrollo responsable de la IA ya no es una opción y ahora se hará cumplir legalmente.
¿Está su empresa preparada para cumplir con la nueva normativa de IA?