Autores:
(1) Gonzalo J. Aniano Porcile, LinkedIn;
(2) Jack Gindi, LinkedIn;
(3) Shivansh Mundra, LinkedIn;
(4) James R. Verbus, LinkedIn;
(5) Hany Farid, LinkedIn y Universidad de California, Berkeley.
Para muchos problemas de clasificación de imágenes, los modelos neuronales grandes (con datos adecuadamente representativos) son atractivos por su capacidad para aprender características discriminantes. Estos modelos, sin embargo, pueden ser vulnerables a ataques adversarios [4]. Queda por ver si nuestro modelo es tan vulnerable como los modelos anteriores en los que cantidades imperceptibles de ruido adversario confunden el modelo [3]. En particular, queda por ver si los aparentes artefactos estructurales o semánticos que parecemos haber aprendido darán más solidez a los ataques adversarios intencionales.
En términos de ataques menos sofisticados, incluidas operaciones de lavado como transcodificación y cambio de tamaño de imágenes, tenemos
demostrado que nuestro modelo es resiliente en una amplia gama de operaciones de lavado.
La creación y detección de contenido generado por IA es inherentemente conflictiva con un ir y venir algo predecible entre el creador y el detector. Si bien puede parecer que la detección es inútil, no lo es. Al construir continuamente detectores, obligamos a los creadores a seguir invirtiendo tiempo y dinero para crear falsificaciones convincentes. Y aunque el creador suficientemente sofisticado probablemente podrá sortear la mayoría de las defensas, el creador promedio no lo hará.
Cuando se opera en grandes plataformas en línea como la nuestra, esta estrategia de mitigación, pero no de eliminación, es valiosa para crear espacios en línea más seguros. Además, cualquier defensa exitosa empleará no uno, sino muchos enfoques diferentes que exploten diversos artefactos. Eludir todas esas defensas planteará importantes desafíos al adversario. Al aprender lo que parece ser un artefacto robusto que es resistente a la resolución, la calidad y una variedad de motores de síntesis, el enfoque descrito aquí agrega una nueva y poderosa herramienta a un conjunto de herramientas defensivas.
Este trabajo es producto de una colaboración entre el profesor Hany Farid y el equipo de Trust Data de LinkedIn[10]. Agradecemos a Bohacek de Matya por su ayuda en la creación de caras generadas por IA. Agradecemos al programa LinkedIn Scholars[11] por permitir esta colaboración. También agradecemos a Ya Xu, Daniel Olmedilla, Kim Capps-Tanaka, Jenelle Bray, Shaunak Chatterjee, Vidit Jain, Ting Chen, Vipin Gupta, Dinesh Palanivelu, Milinda Lakkam y Natesh Pillai por su apoyo a este trabajo. Agradecemos a David Luebke, Margaret Albrecht, Edwin Nieda, Koki Nagano, George Chellapa, Burak Yoldemir y Ankit Patel de NVIDIA por facilitar nuestro trabajo al hacer que el software de generación StyleGAN, los modelos entrenados y las imágenes sintetizadas estén disponibles públicamente, y por su valioso sugerencias.
[1] Estabilidad IA. https://estabilidad.ai. 1
[2] David Bau, Alex Andonian, Audrey Cui, YeonHwan Park, Ali Jahanian, Aude Oliva y Antonio Torralba. Pintar por palabra. arXiv:2103.10951, 2021.1
[3] Nicolás Carlini y Hany Farid. Evadir detectores de imágenes falsas con ataques de caja blanca y negra. En Actas de la conferencia IEEE/CVF sobre talleres de visión por computadora y reconocimiento de patrones, páginas 658–659, 2020. 7
[4] Nicolás Carlini y David Wagner. Hacia la evaluación de la robustez de las redes neuronales. En Simposio IEEE sobre seguridad y privacidad, páginas 39–57. IEEE, 2017. 7
[5] Lucy Chai, David Bau, Ser-Nam Lim y Phillip Isola. ¿Qué hace que las imágenes falsas sean detectables? Comprender las propiedades que se generalizan. En Conferencia europea sobre visión por computadora, páginas 103 a 120, 2020. 2
[6] Eric R Chan, Connor Z Lin, Matthew A Chan, Koki Nagano, Boxiao Pan, Shalini De Mello, Orazio Gallo, Leonidas J Guibas, Jonathan Tremblay, Sameh Khamis, et al. Redes adversarias generativas 3D eficientes y conscientes de la geometría. En Conferencia internacional sobre visión por computadora y reconocimiento de patrones, páginas 16123–16133, 2022. 2
[7] François Chollet. Xception: aprendizaje profundo con convoluciones separables en profundidad. arXiv:1610.02357, 2017.4
[8] Riccardo Corvi, Davide Cozzolino, Giada Zingarini, Giovanni Poggi, Koki Nagano y Luisa Verdoliva. Sobre la detección de imágenes sintéticas generadas por modelos de difusión. En Conferencia internacional sobre acústica, habla y procesamiento de señales, páginas 1 a 5. IEEE, 2023. 2, 5, 7
[9] Chengdong Dong, Ajay Kumar y Eryun Liu. Piénselo dos veces antes de detectar imágenes falsas generadas por GAN a partir de sus huellas de dominio espectral. En Conferencia internacional sobre visión por computadora y reconocimiento de patrones, páginas 7865–7874, 2022. 2
[10] Hany Farid. Crear, usar, hacer mal uso y detectar falsificaciones profundas. Revista de confianza y seguridad en línea, 1(4), 2022. 2
[11] Joel Frank, Thorsten Eisenhofer, Lea Schonherr, Asja Fischer, Dorothea Kolossa y Thorsten Holz. Aprovechar el análisis de frecuencia para un reconocimiento profundo de imágenes falsas. arXiv:2003.08685, 2020.2
[12] Diego Gragnaniello, Davide Cozzolino, Francesco Marra, Giovanni Poggi y Luisa Verdoliva. ¿Las imágenes generadas por GAN son fáciles de detectar? Un análisis crítico del estado de la cuestión. En IEEE International Conference on Multimedia and Expo, páginas 1 a 6, 2021. 2
[13] Hui Guo, Shu Hu, Xin Wang, Ming-Ching Chang y Siwei Lyu. Los ojos lo dicen todo: las formas irregulares de las pupilas revelan rostros generados por pandillas. En Conferencia internacional IEEE sobre acústica, habla y procesamiento de señales, páginas 2904–2908. IEEE, 2022. 2
[14] Kaiming He, Xiangyu Zhang, Shaoqing Ren y Jian Sun. Aprendizaje residual profundo para el reconocimiento de imágenes. arXiv: 1512.03385, 2015.4
[15] Shu Hu, Yuezun Li y Siwei Lyu. Exponer rostros generados por GAN utilizando reflejos especulares corneales inconsistentes. En Conferencia internacional IEEE sobre acústica, habla y procesamiento de señales, páginas 2500–2504. IEEE, 2021. 2
[16] Tero Karras, Timo Aila, Samuli Laine y Jaakko Lehtinen. Crecimiento progresivo de GAN para mejorar la calidad, la estabilidad y la variación. arXiv:1710.10196, 2017.1
[17] Tero Karras, Miika Aittala, Samuli Laine, Erik Hark¨onen,¨ Janne Hellsten, Jaakko Lehtinen y Timo Aila. Redes adversativas generativas sin alias. En Sistemas de procesamiento de información neuronal, 2021. 1, 2
[18] Tero Karras, Samuli Laine y Timo Aila. Una arquitectura generadora basada en estilos para redes generativas adversarias. En Conferencia internacional sobre visión por computadora y reconocimiento de patrones, páginas 4401–4410, 2019. 1, 2
[19] Tero Karras, Samuli Laine, Miika Aittala, Janne Hellsten, Jaakko Lehtinen y Timo Aila. Analizar y mejorar la calidad de imagen de StyleGAN. En Conferencia internacional sobre visión por computadora y reconocimiento de patrones, páginas 8110–8119, 2020.2
[20] David C Knill, David Field y Daniel Kerstent. Discriminación humana de imágenes fractales. JOSA A, 7(6):1113–1123, 1990.1
[21] Bo Liu, Fan Yang, Xiuli Bi, Bin Xiao, Weisheng Li y Xinbo Gao. Detección de imágenes generadas por imágenes reales. En Conferencia europea sobre visión por computadora, páginas 95-110. Springer, 2022. 2
[22] Ze Liu, Yutong Lin, Yue Cao, Han Hu, Yixuan Wei, Zheng Zhang, Stephen Lin y Baining Guo. Transformador Swin: Transformador de visión jerárquica mediante ventanas desplazadas. En la Conferencia Internacional IEEE/CVF sobre Visión por Computador, 2021.4
[23] Shivansh Mundra, Gonzalo J. Aniano Porcile, Smit Marvaniya, James R. Verbus y Hany Farid. Exponer fotografías de perfil gangeneradas a partir de incrustaciones compactas. En la Conferencia Internacional sobre Visión por Computadora y Taller de Reconocimiento de Patrones, 2023. 2, 7
[24] Sophie J. Nightingale y Hany Farid. Los rostros sintetizados por IA son indistinguibles de los rostros reales y son más confiables. Actas de la Academia Nacional de Ciencias, 119(8):e2120481119, 2022. 2
[25] Javier Portilla y Eero P Simoncelli. Un modelo de textura paramétrico basado en estadísticas conjuntas de coeficientes wavelet complejos. Revista internacional de visión por computadora, 40:49–70, 2000. 1
[26] Robin Rombach, Andreas Blattmann, Dominik Lorenz, Patrick Esser y Bjorn Ommer. Síntesis de imágenes de alta resolución con modelos de difusión latente. En Conferencia internacional sobre visión por computadora y reconocimiento de patrones, páginas 10684–10695, 2022. 1, 4
[27] Pawan Sinha, Benjamin Balas, Yuri Ostrovsky y Richard Russell. Reconocimiento facial por parte de humanos: diecinueve resultados que todos los investigadores de visión por computadora deberían conocer. Actas del IEEE, 94(11):1948–1962, 2006.6
[28] Mukund Sundararajan, Ankur Taly y Qiqi Yan. Atribución axiomática para redes profundas. arXiv: 1703.01365, 2017. 6
[29] Chuangchuang Tan, Yao Zhao, Shikui Wei, Guanghua Gu y Yunchao Wei. Aprendizaje sobre gradientes: representación de artefactos generalizados para la detección de imágenes generadas por GAN. En Conferencia internacional sobre visión por computadora y reconocimiento de patrones, páginas 12105–12114, 2023. 2
[30] Mingxing Tan y Quoc V. Le. Efficientnet: repensar el escalado de modelos para redes neuronales convolucionales. arXiv: 1905.11946, 2020.4
[31]Peter Thompson. Margaret Thatcher: una nueva ilusión. Percepción, 9(4):483–484, 1980.6
[32] Sheng-Yu Wang, Oliver Wang, Richard Zhang, Andrew Owens y Alexei A Efros. Las imágenes generadas por CNN son sorprendentemente fáciles de detectar... por ahora. En Conferencia internacional sobre visión por computadora y reconocimiento de patrones, páginas 8695–8704, 2020.2
[33] Xin Yang, Yuezun Li y Siwei Lyu. Exponer falsificaciones profundas usando poses de cabeza inconsistentes. En Conferencia internacional IEEE sobre acústica, habla y procesamiento de señales, páginas 8261–8265. IEEE, 2019. 2
[34] Xin Yang, Yuezun Li, Honggang Qi y Siwei Lyu. Exponer caras sintetizadas con GAN utilizando ubicaciones emblemáticas. En Taller de ACM sobre ocultación de información y seguridad multimedia, páginas 113–118, 2019. 2
[35] Xu Zhang, Svebor Karaman y Shih-Fu Chang. Detección y simulación de artefactos en imágenes falsas de GAN. En Taller internacional IEEE sobre seguridad y análisis de la información, páginas 1 a 6, 2019. 2
Este documento está disponible en arxiv bajo licencia CC 4.0.
[10] El modelo descrito en este trabajo no se utiliza para tomar medidas sobre ningún miembro de LinkedIn.
[11] https://careers.linkedin.com/scholars