paint-brush
L'algorithme de YouTube est-il discriminatoire envers les créateurs minoritaires ?par@alexlefkowitz
1,187 lectures
1,187 lectures

L'algorithme de YouTube est-il discriminatoire envers les créateurs minoritaires ?

par Alex Lefkowitz 5m2022/10/16
Read on Terminal Reader
Read this story w/o Javascript

Trop long; Pour lire

Les créateurs minoritaires affirment être discriminés par l'algorithme de la plateforme. Plusieurs poursuites intentées par des créateurs LGBTQ et BIPOC ont cependant échoué. Pourtant, la Cour suprême réexamine maintenant la loi sous-jacente, l'article 230 - qui ne tient pas compte de la sélection de contenu algorithmique. L'algorithme de YouTube détermine quels créateurs réussissent sur YouTube et lesquels disparaissent dans l'obscurité. Il signale également les vidéos qui contiennent du contenu inapproprié et applique des restrictions sur qui peut les voir.

Companies Mentioned

Mention Thumbnail
Mention Thumbnail
featured image - L'algorithme de YouTube est-il discriminatoire envers les créateurs minoritaires ?
Alex Lefkowitz  HackerNoon profile picture

YouTube est l'une des plus grandes plateformes de médias sociaux, avec plus de 2,6 milliards d'utilisateurs mensuels . Plus de 500 minutes de vidéo sont téléchargées chaque minute alors que d'innombrables créateurs utilisent la plateforme pour partager leurs passions et leurs intérêts - et pour générer un flux de revenus supplémentaire ou même un revenu à temps plein.

C'est possible grâce au Programme Partenaires de YouTube, qui donne une part des revenus publicitaires sur les vidéos à leurs créateurs. De plus, YouTube a également introduit des fonctionnalités de monétisation directe telles que Super Thanks et Stickers. Ceux-ci permettent aux téléspectateurs de donner un pourboire directement aux créateurs.

Cependant, de nombreux créateurs minoritaires affirment qu'ils sont discriminés par l'algorithme de la plateforme et qu'ils perdent des revenus par rapport à leurs pairs. Dans le passé, plusieurs procès pour discrimination intentés par des créateurs LGBTQ et BIPOC ont échoué, mais maintenant la Cour suprême des États-Unis réexamine la législation sous-jacente.

Voici le récapitulatif complet de ces revendications, de leur fondement et de ce qui se passe ensuite.

La puissance de l'algorithme de YouTube

Avant de plonger dans la longue histoire des accusations de discrimination contre YouTube, il est essentiel de comprendre le rôle de l'algorithme de la plateforme dans tout cela.

Fondamentalement, il détermine quels créateurs réussissent sur YouTube et lesquels disparaissent dans l'obscurité.

L'algorithme de YouTube évalue chaque vidéo téléchargée et décide ce qui apparaît dans les résultats de recherche et les recommandations. Il signale également les vidéos qui contiennent du contenu inapproprié et applique des restrictions sur qui peut les voir.

Avoir une limite d'âge sur votre vidéo, par exemple, signifie pratiquement qu'elle devient impossible à monétiser. D'une part, il ne sera visible que pour les utilisateurs connectés et âgés de plus de 18 ans. D'autre part, la plupart des publicités ne sont pas diffusées sur les vidéos soumises à des restrictions, ce qui réduit les revenus des créateurs.

C'est pourquoi l'algorithme de YouTube a une énorme influence sur le succès des créateurs - à la fois la taille de leur audience et le contenu qu'ils peuvent utiliser pour générer un revenu.

Restreindre les recommandations LGBTQ et BLM

Deux des poursuites pour discrimination les plus importantes contre YouTube concernent en fait les restrictions imposées aux vidéos par les créateurs BIPOC et LGBTQ.

En 2020, des créateurs afro-américains ont lancé un recours collectif putatif contre Alphabet, la société mère de YouTube. Ils ont allégué que YouTube avait utilisé son algorithme pour signaler des vidéos en utilisant une terminologie liée au mouvement Black Lives Matter, y compris "profilage racial", "BLM" et "tir de la police". Par la suite, ces vidéos ont été placées en mode restreint.

Une action en justice similaire avait déjà été déposée en août 2019 par des créateurs LGBTQ . Ils ont affirmé que les vidéos utilisant des mots comme "gay", "bisexuel" et "transgenre" dans leurs titres, tags et descriptions étaient souvent signalées et restreintes.

Restrictions d'âge ciblant le contenu créé par des Noirs

Une plainte similaire est apparue beaucoup plus récemment . Le populaire YouTuber noir CoryxKenshin a publié une vidéo décrivant son expérience d'être ciblé par l'algorithme de YouTube pour publier du contenu que ses pairs ont téléchargé sans problème.

Le différend porte sur le jeu d'horreur indépendant récemment sorti The Mortuary Assistant. Il a rapidement gagné en popularité parmi les YouTubers du jeu et beaucoup d'entre eux ont téléchargé des playthroughs, y compris CoryxKenshin.

Cependant, contrairement à celles d'autres créateurs, la vidéo de CoryxKenshin a été rapidement signalée et restreinte, sans que YouTube lui dise pourquoi.

Il a fait appel de la restriction, qui a été rejetée. Sans lâcher prise, il a finalement découvert que la restriction était appliquée en raison d'une scène de la fin de la lecture, qui comprenait des images liées au suicide.

Le problème? Les lectures d'autres YouTubers blancs populaires incluaient exactement la même scène, sans avoir été signalées.

CoryxKenshin a ensuite contacté YouTube, faisant à nouveau appel de la restriction, mais cette fois en utilisant la lecture sans restriction de Markiplier comme argument.

Rapidement, la restriction sur sa vidéo a été supprimée.

Dans sa vidéo sur le racisme et le favoritisme, CoryxKenshin détaille également la quantité de son contenu qui est restreinte juste au moment où elle est tendance. Un exemple qu'il donne est une vieille vidéo de lui qui a commencé à être tendance juste après son retour d'une pause.

Si l'algorithme fonctionnait sans biais, soutient-il, ce contenu aurait dû être signalé il y a longtemps. En l'état, cela donne l'impression que sa chaîne est ciblée exprès.

Sous-représentation du BIPOC dans le contenu pour enfants

Une autre preuve récente de préjugés raciaux dans l'algorithme de YouTube provient d'une étude réalisée par Common Sense Media, un site Web de critiques de divertissement pour enfants . En partenariat avec l'Université du Michigan, ils ont examiné le contenu pour enfants que l'algorithme de YouTube pousse pour un public plus jeune.

Étant donné que la plate-forme propose du contenu généré par les utilisateurs, selon les auteurs, elle a de bien meilleures chances de représenter la réalité diversifiée dans laquelle nous vivons. Surtout par rapport aux studios hollywoodiens, qui ont encore du mal avec la représentation BIPOC.

Pourtant, les résultats de l'étude ont montré que la majorité (62 %) des contenus populaires auprès des enfants de moins de 9 ans ne comportaient aucun personnage BIPOC. Les vidéos qui incluaient des personnages divers étaient beaucoup plus susceptibles de présenter des éléments négatifs, tels que du langage grossier et de la violence. De plus, 10 % des vidéos atteignant une popularité virale parmi les préadolescents et les adolescents comportaient des stéréotypes raciaux.

Cela ne veut pas dire que le contenu positif des créateurs du BIPOC n'existe pas. YouTube ne réussit qu'à le promouvoir via son algorithme.

Bien que les auteurs de l'étude n'accusent pas catégoriquement l'algorithme de promouvoir un contenu biaisé, ils lancent un appel urgent à plus de transparence et à un effort conscient de la part de YouTube pour promouvoir un contenu BIPOC positif pour les enfants.

Amplification algorithmique et article 230

YouTube dit qu'il a déjà fait de grands progrès et qu'il travaille à la mise en œuvre d'initiatives de programmation conçues pour promouvoir la diversité et l'inclusion. Néanmoins, les effets ne semblent pas encore apparents pour les créateurs.

Une partie du problème est également que YouTube et d'autres plateformes de médias sociaux comme celle-ci bénéficient actuellement de protections juridiques étendues, grâce à l'article 230 de la Communications Decency Act. Cette loi, adoptée en 1996, stipule que les entreprises en ligne ne sont pas responsables de la transmission de matériel téléchargé par d'autres.

Ceux d'entre nous qui se souviennent d'Internet en 1996 pourraient bien penser qu'il est bizarre qu'une loi de l'ère pré-Google des babillards électroniques, des connexions Internet commutées et de MSN réglemente les géants des médias sociaux d'aujourd'hui. De nombreux politiciens sont d'accord et ont lancé des initiatives pour modifier la loi . Sans succès, jusqu'à présent.

En 2020 et 2021, l'article 230 a été utilisé pour vaincre les poursuites intentées par des créateurs LGBTQ et BIPOC alléguant un parti pris.

Maintenant, cependant, la Cour suprême des États-Unis a accepté d'entendre une contestation de l'article 230. Un argument clé est que les géants des médias sociaux comme YouTube perdent la protection de la loi dès que leurs algorithmes amplifient certains contenus, renforçant ainsi son message.

Dernières pensées

Il reste à voir si la section 230 sera modifiée sur la base d'une amplification algorithmique et comment elle aidera divers créateurs à lutter contre les préjugés.

Pour le moment, le mieux qu'ils puissent faire est d'être conscient du fonctionnement opaque de l'algorithme et du fait qu'il semble y avoir un parti pris palpable contre les créateurs représentant des minorités. Et d'en parler.

En mettant en lumière leurs expériences avec ces écarts en tant que collectif, ils peuvent contribuer au changement et fournir des arguments aux avocats qui s'attaquent au cadre juridique qui leur permet de se produire.