लेखक :
(1) Anh V. Vu, कैम्ब्रिज विश्वविद्यालय, कैम्ब्रिज साइबर अपराध केंद्र ([email protected]);
(2) Alice Hutchings, कैम्ब्रिज विश्वविद्यालय, कैम्ब्रिज साइबर अपराध केंद्र ([email protected]);
(3) रॉस एंडरसन, कैम्ब्रिज विश्वविद्यालय, और एडिनबर्ग विश्वविद्यालय ([email protected])
Authors:
(1) Anh V. Vu, कैम्ब्रिज विश्वविद्यालय, कैम्ब्रिज साइबर अपराध केंद्र ([email protected]);
(2) Alice Hutchings, कैम्ब्रिज विश्वविद्यालय, कैम्ब्रिज साइबर अपराध केंद्र ([email protected]);
(3) रॉस एंडरसन, कैम्ब्रिज विश्वविद्यालय, और एडिनबर्ग विश्वविद्यालय ([email protected])
बाईं ओर टेबल
3. विधियों, डेटा सेट, और नैतिकता, और 3.1. फोरम और छविबोर्ड चर्चा
3.2. टेलीग्राम चैट और 3.3. वेब ट्रैफ़िक और खोज रुझान विश्लेषण
3.4. ऑनलाइन समुदाय द्वारा किए गए ट्वीट्स और 3.5. डेटा लाइसेंस
4. फोरम गतिविधि और ट्रैफ़िक पर प्रभाव, और 4.1. प्रमुख बाधाओं का प्रभाव
5. प्रासंगिक हितधारकों पर प्रभाव और 5.1 समुदाय जो अभियान शुरू किया
6. तनाव, चुनौतियों, और परिणामों और 6.1. हस्तक्षेप की प्रभावशीलता
6.2 मुक्त भाषण के खिलाफ सेंसरशिप
6.3. सामग्री मॉरेटिंग में उद्योग की भूमिका
7. निष्कर्ष, मान्यताएं और संदर्भ
Abstract—Legislators and policymakers worldwide are debating options for suppressing illegal, harmful and undesirable material online. Drawing on several quantitative data sources, we show that deplatforming an active community to suppress online hate and harassment, even with a substantial concerted effort involving several tech firms, can be hard. Our case study is the disruption of the largest and longest-running harassment forum KIWI FARMS in late 2022, which is probably the most extensive industry effort to date. Despite the active participation of a number of tech companies over several consecutive months, this campaign failed to shut down the forum and remove its objectionable content. While briefly raising public awareness, it led to rapid platform displacement and traffic fragmentation. Part of the activity decamped to Telegram, while traffic shifted from the primary domain to previously abandoned alternatives. The forum experienced intermittent outages for several weeks, after which the community leading the campaign lost interest, traffic was directed back to the main domain, users quickly returned, and the forum was back online and became even more connected. The forum members themselves stopped discussing the incident shortly thereafter, and the net effect was that forum activity, active users, threads, posts and traffic were all cut by about half. The disruption largely affected casual users (of whom roughly 87% left), while half the core members remained engaged. It also drew many newcomers, who exhibited increasing levels of toxicity during the first few weeks of participation. Deplatforming a community without a court order raises philosophical issues about censorship versus free speech; ethical and legal issues about the role of industry in online content moderation; and practical issues on the efficacy of private-sector versus government action. Deplatforming a dispersed community using a series of court orders against individual service providers appears unlikely to be very effective if the censor cannot incapacitate the key maintainers, whether by arresting them, enjoining them or otherwise deterring them.
अवलोकन1. परिचय
ऑनलाइन सामग्री अब प्रचलित है, व्यापक रूप से सुलभ है, और सार्वजनिक भाषण को आकार देने में प्रभावशाली है. हालांकि ऑनलाइन साइटें मुक्त भाषण की सुविधा प्रदान करती हैं, वे नफरत भाषण [1] के लिए भी ऐसा करते हैं, और दोनों के बीच की लाइन अक्सर बहस की जाती है. गेमर्गेट जैसे कुछ मामलों में ट्रैकिंग, धमकाने और डॉक्सिंग के वास्तविक दुनिया के परिणाम होते हैं, जिसमें हिंसक अपराध और राजनीतिक गतिविधियां शामिल हैं [2]. सामग्री मॉडरेटिंग टेक्नोलॉजी कंपनियों की एक महत्वपूर्ण कार्य बन गई है, लेकिन यह भी एक राजनीतिक टकराव की जगह है, क्योंकि अपमानजनक खाते ऑनलाइन समुदायों को काफी अलग तरीकों से प्रभावित कर सकते हैं [3]. ऑनलाइन सोशल प्लेटफॉर्म विभिन्न तंत्रों का उपयोग करते हैं, उदाहरण
डेप्लेटफॉर्मिंग का मतलब व्यक्तिगत उपयोगकर्ताओं को अवरुद्ध करना हो सकता है, लेकिन कभी-कभी लक्ष्य केवल एक बुरा अभिनेता नहीं है, बल्कि एक पूरे समुदाय है, जैसे कि एक अपराध में शामिल है [11]. यह उद्योग द्वारा किया जा सकता है, जैसे कि Cloudflare, GoDaddy, Google और कुछ अन्य कंपनियों ने 2017 में वर्जीनिया में Unite the Right मंच के बाद DAILY STORMER के लिए सेवा समाप्त कर दी है [12] और 8CHAN के लिए अगस्त 2019 [13]; या कानून प्रवर्तन द्वारा, जैसे कि एफबीआई ने 2018 [14], [15] और 2022 [16], [17] में DDoS-forhire सेवाओं को खत्म कर दिया, और 2022 [18] में RAID FORUMS पर कब्जा कर लिया। उद्योग में विघटन अक्सर अल्पकालिक रहा
KIWI FARMS सबसे बड़ा और सबसे लंबे समय से चलने वाला ऑनलाइन हिंसा मंच है [21]. यह अक्सर वास्तविक जीवन में फेमिनिस्ट, समलैंगिक अधिकार अभियानियों और कमियों जैसे विकलांग, ट्रांसजेंडर, और ऑटिस्टिक व्यक्तियों के खिलाफ ट्रॉलिंग और डॉक्सिंग अभियानों के साथ जुड़ा हुआ है; कुछ ने अतीत में हिंसा के बाद खुद को मार डाला है [22]. अप्रिय और व्यापक रूप से विवादित होने के बावजूद, मंच एक दशक के लिए ऑनलाइन रहा है और वर्षों के लिए क्लाउडफ़्लेयर के डीडीओएस सुरक्षा द्वारा गुजर रहा था. यह एक गंभीर हिंसा के बाद समाप्त हुआ, एक कनाडाई ट्रांस कार्यकर्ता के मंच सदस्यों द्वारा, अगस्त 2022 में एक स्विटिंग घटना में उभरने की कोशिश की
मौजूदा अध्ययनों ने सोशल मीडिया उपयोगकर्ताओं [28], [29], [30], [31], [32], [33], [34][30] को डिप्लेटफॉर्म करने की प्रभावशीलता की जांच की है, हालांकि, उद्योग के विपरीत स्वतंत्र घृणा समुदायों जैसे बुलेटिन-बोर्ड मंचों के खिलाफ प्रभावशीलता के बारे में सीमित अनुसंधान किया गया है, जो अधिक प्रतिरोधी होते हैं क्योंकि सामग्री को प्रशासकों द्वारा पूरी तरह से बैकअप किया जा सकता है और पुनर्स्थापित किया जा सकता है. इस दस्तावेज़ में पता चलता है कि उद्योग - होस्टिंग और डोमेन प्रदाता, सुरक्षा और सुरक्षा सेवाओं, प्रमाणपत्र प्राधिकरणों, और आईएसपी नेटवर्क जैसे ऑनलाइन सेवाओं के लिए डिजिटल बुनियादी ढांचे की पेशकश करने वाले इकाइयां
हम अनुच्छेद 2 में विघटन परिदृश्य का वर्णन करते हैं, फिर अनुच्छेद 3 में हमारे तरीकों, डेटा सेट और नैतिकता का वर्णन करते हैं। हमारा अंतिम लक्ष्य प्रयास की प्रभावशीलता का मूल्यांकन करना है, और ऑनलाइन घृणा और उत्पीड़न को दबाने के साधन के रूप में deplatforming के प्रभावों और चुनौतियों को समझना है। हमारे प्राथमिक अनुसंधान प्रश्नों को निम्नलिखित अनुच्छेदों में संबोधित किया जाता है: फोरम गतिविधि और ट्रैफ़िक पर deplatforming के प्रभाव को अनुच्छेद 4 में मूल्यांकन किया जाता है; फोरम सदस्यों के व्यवहार में परिवर्तन जब उनके एकत्रित स्थान को बाधित किया जाता है, साथ ही साथ फोरम ऑपरेटरों और समुदाय पर प्रभाव जो अभियान शुरू किया
यह लेख CC BY 4.0 DEED लाइसेंस के तहत archiv पर उपलब्ध है।
यह लेख CC BY 4.0 DEED लाइसेंस के तहत archiv पर उपलब्ध है।
[1] यह तब होता है जब एक उत्पीड़नकार झूठे रूप से पीड़ित के घर पर चल रहे एक हिंसक अपराध की रिपोर्ट करता है, जिसके परिणामस्वरूप एक विशेष हथियार और रणनीति (एसडब्ल्यूएटी) टीम इमारतों पर हमला करने के लिए पहुंच जाती है, जिससे पीड़ित और परिवार को खतरा होता है।