paint-brush
Facebook hizo una promesa. ¿Lo mantuvieron?por@TheMarkup
973 lecturas
973 lecturas

Facebook hizo una promesa. ¿Lo mantuvieron?

por The Markup6m2022/11/16
Read on Terminal Reader
Read this story w/o Javascript

Demasiado Largo; Para Leer

Facebook anunció un cambio en su sistema de orientación de anuncios el año pasado. The Markup descubrió que dicha orientación de anuncios todavía está disponible en la plataforma de Facebook. Facebook no ha explicado cómo determina qué opciones de publicidad son "sensibles" y, en respuesta a las preguntas, se negó a detallar cómo toma esas determinaciones. La empresa se ha enfrentado a críticas por ofrecer a los anunciantes categorías de "interés" que hablan de detalles más fundamentales, ya veces muy personales, sobre los intereses de un usuario.

People Mentioned

Mention Thumbnail
Mention Thumbnail

Companies Mentioned

Mention Thumbnail
Mention Thumbnail
featured image - Facebook hizo una promesa. ¿Lo mantuvieron?
The Markup HackerNoon profile picture

A fines del año pasado, luego de enfrentar años de críticas por sus prácticas, Facebook anunció un cambio en su sistema de publicidad multimillonario : las empresas que compran anuncios ya no podrán dirigirse a personas en función de categorías de interés como raza, religión, condiciones de salud, política, etc. u orientación sexual.

Consulta nuestros datos aquí.

GitHub


Sin embargo, más de tres meses después de que el cambio supuestamente entrara en vigencia, The Markup descubrió que dicha orientación de anuncios todavía está disponible en la plataforma de Facebook.


De hecho, se han eliminado algunas categorías de anuncios obvias, como "jóvenes conservadores", "Rachel Maddow", "cultura hispana" e "hinduismo", todas las categorías que encontramos como opciones en la plataforma a principios de enero, pero que han desaparecido desde entonces.


Sin embargo, quedan otros indicadores indirectos obvios de la raza, la religión, las condiciones de salud y la orientación sexual.


Ya en 2018, el CEO Mark Zuckerberg le dijo al Congreso que la compañía había “eliminado la capacidad de excluir grupos étnicos y otras categorías sensibles de la orientación de anuncios. Así que esa ya no es una característica que esté disponible”.


El Markup encontró, sin embargo, que si bien se eliminó la "cultura hispana", por ejemplo, no se eliminó el "idioma español".


Se eliminó "Tea Party Patriots", pero "Tea party" y "The Tea Party" todavía estaban disponibles. La "igualdad social" y la "justicia social" desaparecieron, pero los anunciantes aún podrían apuntar a "movimiento social" y "cambio social".


Starbucks, por ejemplo, todavía podía usar las opciones existentes después del cambio para colocar un anuncio de su café con leche de pistacho enfocado en usuarios interesados en "R&B contemporáneo", "telenovela", "idioma español" y "K-pop", todos representantes para audiencias negras, latinas y asiáticas en Facebook.


Facebook no ha explicado cómo determina qué opciones de publicidad son "sensibles" y, en respuesta a las preguntas de The Markup, se negó a detallar cómo toma esas determinaciones.


Pero en los días posteriores a que The Markup se comunicó con Facebook para hacer comentarios, la empresa eliminó varias opciones de orientación de anuncios potencialmente sensibles que marcamos.


“La eliminación de las opciones de orientación confidencial es un proceso continuo, y revisamos constantemente las opciones disponibles para asegurarnos de que coincidan con las expectativas cambiantes de las personas sobre cómo los anunciantes pueden llegar a ellos en nuestra plataforma”, dijo Dale Hogan, portavoz de la empresa matriz de Facebook, Meta, en un comunicado. declaración.


“Si descubrimos opciones adicionales que consideramos sensibles, las eliminaremos”.


El sistema de segmentación de anuncios de Facebook es la clave no tan secreta del enorme éxito financiero de la empresa. Al rastrear los intereses de los usuarios en línea, promete la compañía, los anunciantes pueden encontrar a las personas que probablemente pagarán por sus productos y servicios y mostrarles anuncios directamente.


Pero la empresa se ha enfrentado a críticas por ofrecer a los anunciantes categorías de "interés" que hablan de detalles más fundamentales, ya veces muy personales, sobre un usuario.


Esos intereses se pueden usar de maneras sorprendentes para discriminar, desde excluir a las personas de color de los anuncios de viviendas hasta alimentar la polarización política y rastrear a los usuarios con enfermedades específicas .


Es obvio para todos los que están en el campo que [eliminar un puñado de términos considerados confidenciales] no es una solución completa.


Aleksandra Korolova, Universidad del Sur de California


Los críticos de Facebook dicen que la empresa ha tenido amplias oportunidades para solucionar los problemas con su sistema de publicidad, y tratar de reparar la plataforma mediante la eliminación de términos "sensibles" individuales enmascara un problema subyacente: la plataforma de la empresa podría ser simplemente demasiado grande y difícil de manejar para arreglarla sin más. cambios fundamentales.


Eliminar un puñado de términos que considera sensibles no es suficiente, según Aleksandra Korolova, profesora asistente de informática en la Universidad del Sur de California.


“Es obvio para todos los que están en el campo que no es una solución completa”, dijo.

Los proxies claros para los términos eliminados todavía están en Facebook

El Markup reunió una lista de términos potencialmente confidenciales a partir de finales de octubre, antes de que Facebook eliminara las opciones de segmentación por intereses. Los datos se recopilaron a través de Citizen Browser , un proyecto en el que The Markup recibe datos de Facebook de un panel nacional de usuarios de Facebook.


También recopilamos una lista de términos que las herramientas de Facebook recomendaron a los anunciantes cuando ingresaron un término potencialmente confidencial: la empresa sugirió "BET" y "Essence (revista)" cuando los anunciantes buscaron "cultura afroamericana", por ejemplo.


Luego, también usando las herramientas de Facebook, calculamos cuán similares eran los términos a sus sugerencias al ver a cuántos usuarios se estimaba que llegarían los anuncios, lo que Facebook llama "audiencia". (Vea los detalles de nuestro análisis en Github ).


Para encontrar las brechas en el proceso de limpieza de Facebook, buscamos esos términos nuevamente en las herramientas de publicidad pública de Facebook a fines de enero para ver cuáles había eliminado la compañía después de su cambio.


Descubrimos que, en algunos casos, las opciones que aún estaban disponibles llegaban casi exactamente a los mismos usuarios que las opciones que se eliminaron. Se eliminó "BET", el acrónimo de Black Entertainment Television, pero "BET Hip Hop Awards", que se recomendaba anteriormente con BET y tenía una superposición del 99 por ciento en las audiencias, todavía estaba disponible.


El "orgullo gay" también se eliminó como una opción, pero al usar el término "RuPaul's Drag Race", los anunciantes aún podían llegar a más de 13 millones de los mismos usuarios.


Estos proxies no solo estaban teóricamente disponibles para los anunciantes en Facebook. The Markup descubrió que las empresas los usaban activamente para dirigir anuncios a personas en la red social.


Usando Citizen Browser , encontramos varios ejemplos de proxies de raza y afiliación política utilizados para la orientación.


Ancestry, el servicio de genealogía, por ejemplo, dirigía los anuncios usando los términos “telenovela”, “Premios BET Hip Hop”, “Cultura africana” y “Afrobeat”.


Facebook eliminó "Fox News Channel" como una opción de orientación que podría llegar a los usuarios conservadores, pero vimos que el sitio web de sátira conservadora The Babylon Bee apuntaba a un anuncio que ridiculizaba a Anthony Fauci utilizando la categoría de interés "Juez Jeanine Piro", todavía disponible en ese momento, un Fox Nueva personalidad.


Antes de que se eliminara Fox News Channel, descubrimos que el 86 % de los usuarios etiquetados con interés en la jueza Jeanine Piro también estaban etiquetados con interés en la red de noticias por cable.


Descubrimos que Facebook tampoco eliminó por completo la orientación basada en condiciones médicas. Se eliminó "Concienciación sobre el autismo", pero "Epidemiología del autismo" todavía estaba disponible.


Se eliminó “Concienciación sobre la diabetes mellitus”, pero no se eliminó el “Sustituto del azúcar”, estrechamente relacionado. Encontramos un anuncio de Medtronic, una empresa de dispositivos médicos, que utiliza ese término para promocionar una pluma de insulina para el control de la diabetes en Facebook.


Incluso el propio Facebook ha utilizado los proxies. Encontramos un anuncio colocado por la empresa que promocionaba sus grupos a los usuarios interesados en "Vibe (revista)", un sustituto de los términos eliminados que se dirigen al público negro.


Starbucks, Ancestry y Babylon Bee no respondieron a las solicitudes de comentarios sobre sus prácticas de orientación de anuncios.


Pamela Reese, vocera de Medtronic, dijo que la compañía ha dejado de usar el "sustituto del azúcar" como opción de orientación y que Medtronic está "bien dentro" de las regulaciones de la FDA para la publicidad de dispositivos médicos.


El marcado proporcionó varios ejemplos de estos posibles términos proxy para Facebook, incluidos "telenovela", "BET Hip Hop Awards", "RuPaul's Drag Race" y "Judge Jeanine Piro". Fueron eliminados silenciosamente después de que se envió nuestra solicitud de comentarios.


Los críticos de Facebook como Korolova dicen que Facebook tiene un historial de prometer implementar cambios significativos en su plataforma de publicidad solo para no cumplir la promesa.


La investigación ha mostrado problemas con la publicidad de "proxies" durante años, y Facebook podría haber tomado medidas más enérgicas para solucionar los problemas, argumenta.


“Si quisieran, podrían hacerlo mejor”, dijo Korolova.


Facebook dice que sus cambios recientes fueron necesarios para prevenir el abuso, pero algunas organizaciones que dicen que usan Facebook para el bien social se han quejado de que las nuevas políticas ponen barreras a su trabajo.


Activistas climáticos e investigadores médicos se han quejado de que los cambios han limitado su capacidad para llegar a una audiencia relevante.


Daniel Carr, consultor de reclutamiento de SMASH Labs, un grupo de investigación médica que usa Facebook para reclutar a hombres homosexuales y bisexuales para sus estudios, dijo que los cambios recientes los obligaron a cambiar de términos como "cultura LGBT" a referencias a la cultura pop como "RuPaul's Drag Race". .” Carr dijo que el reclutamiento del estudio fue constante, pero que el cambio no les sentó bien.


“Lo ha hecho más complicado de nuestro lado, y en realidad no ha cambiado nada, aparte de que Facebook ahora puede decir: 'No permitimos que te enfoques en estas cosas'”, dijo Carr. “Es un movimiento político, en todo caso”.


Por Angie Waller y Colin Lecher


También publicado aquí


Foto de Dima Solomin en Unsplash