Autores:
(1) Gonzalo J. Aniano Porcile, LinkedIn;
(2) Jack Gindi, LinkedIn;
(3) Shivansh Mundra, LinkedIn;
(4) James R. Verbus, LinkedIn;
(5) Hany Farid, LinkedIn y Universidad de California, Berkeley.
La generación de imágenes basada en IA ha seguido mejorando rápidamente, produciendo imágenes cada vez más realistas con menos defectos visuales obvios. Las imágenes generadas por IA se utilizan para crear perfiles en línea falsos que, a su vez, se utilizan para campañas de spam, fraude y desinformación. Dado que el problema general de detectar cualquier tipo de contenido manipulado o sintetizado está recibiendo cada vez más atención, aquí nos centramos en una tarea más limitada de distinguir un rostro real de un rostro generado por IA. Esto es particularmente aplicable cuando se trata de cuentas en línea no auténticas con una foto de perfil de usuario falsa. Demostramos que al centrarse solo en rostros, se puede detectar un artefacto más resistente y de propósito general que permite la detección de rostros generados por IA a partir de una variedad de motores de síntesis basados en GAN y difusión, y en resoluciones de imagen (tan bajas). como 128 × 128 píxeles) y calidades.
Las últimas tres décadas han sido testigos de avances notables en el modelado estadístico de imágenes naturales. El modelo espectral de potencia más simple [20] captura la caída de magnitud de frecuencia 1/ω típica de las imágenes naturales, Figura 1(a). Debido a que este modelo no incorpora ninguna información de fase, no puede capturar información estructural detallada. A principios de 2000, nuevos modelos estadísticos fueron capaces de capturar las estadísticas naturales tanto de magnitud como de (algunas) fases [25], lo que condujo a avances en el modelado de patrones de textura básicos, Figura 1(b).
Si bien pueden capturar patrones repetidos, estos modelos no pueden capturar las propiedades geométricas de objetos, caras o escenas complejas. A partir de 2017, y impulsados por grandes conjuntos de datos de imágenes naturales, avances en aprendizaje profundo y potentes clústeres de GPU, los modelos generativos comenzaron a capturar propiedades detalladas de rostros y objetos humanos [16, 18]. Entrenadas con una gran cantidad de imágenes de una sola categoría (rostros, automóviles, gatos, etc.), estas redes generativas adversarias (GAN) capturan propiedades altamente detalladas.
de, por ejemplo, caras, Figura 1(c), pero están restringidos a una sola categoría. Más recientemente, los modelos basados en difusión [2,26] han combinado modelos de imágenes generativas con indicaciones lingüísticas que permiten la síntesis de imágenes a partir de indicaciones de texto descriptivo como “un apicultor pintando un autorretrato”, Figura 1(d).
Tradicionalmente, el desarrollo de modelos de imágenes generativas estuvo impulsado por dos objetivos principales: (1) comprender las propiedades estadísticas fundamentales de las imágenes naturales; y (2) utilizar las imágenes sintetizadas resultantes para todo, desde la representación de gráficos por computadora hasta la psicofísica humana y el aumento de datos en tareas clásicas de visión por computadora. Hoy, sin embargo, la IA generativa ha encontrado casos de uso más nefastos que van desde spam hasta fraude y combustible adicional para campañas de desinformación.
La detección de imágenes manipuladas o sintetizadas es particularmente desafiante cuando se trabaja en redes a gran escala con cientos de millones de usuarios. Este desafío se vuelve aún más significativo cuando el usuario promedio lucha por distinguir una cara real de una falsa [24]. Debido a que nos preocupa el uso de IA generativa para crear cuentas de usuarios falsas en línea, buscamos desarrollar técnicas rápidas y confiables que puedan distinguir caras reales de caras generadas por IA. A continuación situamos nuestro trabajo en el contexto de técnicas relacionadas.
Debido a que nos centraremos específicamente en rostros generados por IA, revisaremos trabajos relacionados que también se centran en, o son aplicables, para distinguir rostros reales de falsos. Hay dos categorías amplias de enfoques para detectar contenido generado por IA [10].
En el primero, enfoques basados en hipótesis, se explotan artefactos específicos en rostros generados por IA, como inconsistencias en la simetría facial bilateral en forma de reflejos corneales [13] y forma de la pupila [15], o inconsistencias en la postura de la cabeza y el diseño espacial. de los rasgos faciales (ojos, punta de la nariz, comisuras de la boca, mentón, etc.) [23, 33, 34]. El beneficio de estos enfoques es que aprenden anomalías explícitas a nivel semántico. El inconveniente es que con el tiempo los motores de síntesis parecen estar corrigiendo (ya sea implícita o explícitamente) estos artefactos. Otros artefactos no específicos de la cara incluyen anomalías de ruido o frecuencia espacial [5,8,12,21,35], pero estos artefactos tienden a ser vulnerables a ataques de lavado simples (por ejemplo, transcodificación, ruido aditivo, cambio de tamaño de imagen).
En el segundo enfoque, basado en datos, se utiliza el aprendizaje automático para aprender a distinguir entre imágenes reales y generadas por IA [11, 29, 32]. Estos modelos a menudo funcionan bien cuando analizan imágenes consistentes con su entrenamiento, pero luego tienen problemas con imágenes fuera de dominio y/o son vulnerables a ataques de lavado porque el modelo se aferra a artefactos de bajo nivel [9].
Intentamos aprovechar lo mejor de ambos enfoques. Al entrenar nuestro modelo en una variedad de motores de síntesis (GAN y difusión), buscamos evitar aferrarnos a un artefacto específico de bajo nivel que no se generaliza o que puede ser vulnerable a simples ataques de lavado. Al centrarnos únicamente en detectar rostros generados por IA (y no imágenes sintéticas arbitrarias), mostramos que nuestro modelo parece haber capturado un artefacto de nivel semántico distinto de los rostros generados por IA, lo cual es muy deseable para nuestra aplicación específica de encontrar usuarios potencialmente fraudulentos. cuentas. También mostramos que nuestro modelo es resistente a la detección de rostros generados por IA que no se habían visto previamente en el entrenamiento, y es resistente en una amplia gama de resoluciones y calidades de imágenes.
Este documento está disponible en arxiv bajo licencia CC 4.0.