Los autores:
(1) Anh V. Vu, Universidad de Cambridge, Cambridge Cybercrime Centre ([email protected]);
(2) Alice Hutchings, Universidad de Cambridge, Cambridge Cybercrime Centre ([email protected]);
(3) Ross Anderson, Universidad de Cambridge y Universidad de Edimburgo ([email protected]).
Authors:
(1) Anh V. Vu, Universidad de Cambridge, Cambridge Cybercrime Centre ([email protected]);
(2) Alice Hutchings, Universidad de Cambridge, Cambridge Cybercrime Centre ([email protected]);
(3) Ross Anderson, Universidad de Cambridge y Universidad de Edimburgo ([email protected]).
Mesa de la izquierda
2.- El despliegue y sus consecuencias
2.2.- La perturbación de las granjas de kiwi
Métodos, conjuntos de datos y ética, y 3.1.
3.2. telegram chats y 3.3. tráfico web y tendencias de búsqueda Analytics
3.4. tweets hechos por la comunidad en línea y 3.5. licencia de datos
El impacto en la actividad y el tráfico del foro, y 4.1.
4.2 Desplazamiento de la plataforma
Los impactos en las partes interesadas relevantes y 5.1.La comunidad que inició la campaña
5.2 Respuestas de la industria
Tensiones, retos e implicaciones y 6.1.La eficacia de la interrupción
6.2 Censura versus libertad de expresión
6.3 El papel de la industria en la moderación de contenido
6.5 Limitaciones y trabajo futuro
Conclusión, reconocimientos y referencias
Abstract—Legislators and policymakers worldwide are debating options for suppressing illegal, harmful and undesirable material online. Drawing on several quantitative data sources, we show that deplatforming an active community to suppress online hate and harassment, even with a substantial concerted effort involving several tech firms, can be hard. Our case study is the disruption of the largest and longest-running harassment forum KIWI FARMS in late 2022, which is probably the most extensive industry effort to date. Despite the active participation of a number of tech companies over several consecutive months, this campaign failed to shut down the forum and remove its objectionable content. While briefly raising public awareness, it led to rapid platform displacement and traffic fragmentation. Part of the activity decamped to Telegram, while traffic shifted from the primary domain to previously abandoned alternatives. The forum experienced intermittent outages for several weeks, after which the community leading the campaign lost interest, traffic was directed back to the main domain, users quickly returned, and the forum was back online and became even more connected. The forum members themselves stopped discussing the incident shortly thereafter, and the net effect was that forum activity, active users, threads, posts and traffic were all cut by about half. The disruption largely affected casual users (of whom roughly 87% left), while half the core members remained engaged. It also drew many newcomers, who exhibited increasing levels of toxicity during the first few weeks of participation. Deplatforming a community without a court order raises philosophical issues about censorship versus free speech; ethical and legal issues about the role of industry in online content moderation; and practical issues on the efficacy of private-sector versus government action. Deplatforming a dispersed community using a series of court orders against individual service providers appears unlikely to be very effective if the censor cannot incapacitate the key maintainers, whether by arresting them, enjoining them or otherwise deterring them.
Abstracción1 Introducción
Sin embargo, mientras que los sitios en línea facilitan la libertad de expresión, hacen lo mismo para el discurso de odio [1], y la línea entre los dos se discute a menudo. Algunos casos de persecución, bullying y doxxing como Gamergate han tenido consecuencias en el mundo real, incluidos el crimen violento y la movilización política [2]. La moderación de contenido se ha convertido en una función crítica de las compañías de tecnología, pero también en un espacio político, ya que las cuentas abusivas pueden afectar a las comunidades en línea de maneras significativamente diferentes [3]. Las plataformas sociales en línea emplean diversos mecanismos, por ejemplo, la inteligencia artificial [4], para detectar, moderar y suprimir contenidos objecionables [5], incluyendo técnicas “hard” y “soft” [6]. Estos van desde informar a los usuarios de contenidos
Desplatforming puede significar bloquear a los usuarios individuales, pero a veces el objetivo no es un solo mal actor, sino una comunidad entera, como uno involucrado en el crimen [11]. Puede ser emprendido por la industria, como cuando Cloudflare, GoDaddy, Google y algunas otras empresas terminaron el servicio para el DAILY STORMER después de la manifestación Unite the Right en Virginia en 2017 [12] y para 8CHAN en agosto de 2019 [13]; o por la aplicación de la ley, como con la intervención del FBI al derribar los servicios de DDoS-forhire en 2018 [14], [15] y 2022 [16], [17], y la captura de RAID FORUMS en 2022 [18]. La disminución de la industria a menudo ha sido de corta duración; tanto 8CHANCHAN y DAILY STORMER re
KIWI FARMS es el mayor y más largo foro de acoso en línea [21]. A menudo se asocia con campañas de trolling y doxxing en la vida real contra feministas, activistas de derechos homosexuales y minorías como discapacitados, transexuales y autistas; algunos se han suicidado después de haber sido acosados [22]. A pesar de ser desagradable y ampliamente controvertido, el foro ha estado en línea durante una década y ha sido protegido por la protección DDoS de Cloudflare durante años. Esto terminó después de un acoso grave por parte de los miembros del foro de un activista trans canadiense, que culminó en un incidente de acoso en agosto de 2022.[1] Esto resultó en una campaña dirigida por la comunidad en Twitter para presionar a Cloudflare y otras empresas tecnológicas a abandonar el foro
Los estudios existentes han investigado la eficacia de desplomarse a los usuarios de las redes sociales [28], [29], [30], [31], [32], [33], [34], sin embargo, ha habido una investigación limitada -tanto cuantitativa como cualitativa- en la eficacia de las perturbaciones de la industria contra las comunidades de odio independientes como los foros de boletín de noticias, que tienden a ser más resilientes ya que el contenido puede ser completamente respaldado y restaurado por los administradores.
Nuestro objetivo final es evaluar la eficacia del esfuerzo, y comprender los impactos y desafíos de la desplataforma como medio para suprimir el odio y el acoso en línea. Nuestras preguntas de investigación primarias se abordan en las secciones siguientes: el impacto de la desplataforma en la actividad y el tráfico del foro se evalúa en el §4; los cambios en el comportamiento de los miembros del foro cuando su lugar de reunión se interrumpe, así como los efectos sobre los operadores del foro y la comunidad que inició la campaña se examinan en el §5.
Este artículo está disponible en archivo bajo la licencia CC BY 4.0 DEED.
Este documento esDisponible en Archivobajo la licencia CC BY 4.0 DEED.
[1] Esto es cuando un acosador reporta falsamente un crimen violento en curso en la casa de la víctima, lo que resulta en la llegada de un equipo de armas y tácticas especiales (SWAT) para asaltar las instalaciones, poniendo a la víctima y a su familia en riesgo.