La Cour électorale supérieure du Brésil a approuvé un nouvel ensemble de règles pour l'utilisation de l'intelligence artificielle (IA) lors des élections . Parmi les mesures figurent l'interdiction totale des deep fakes et l'avertissement obligatoire de l'utilisation de l'IA dans tous les contenus partagés par les candidats et leurs campagnes.
La prochaine série d'élections du pays aura lieu en octobre, où aura lieu le vote pour les maires et les conseillers locaux, et les nouvelles règles en matière d'IA sont déjà entrées en vigueur. Il s’agit du premier ensemble de réglementations statuées par le tribunal électoral concernant l’utilisation de l’IA par les candidats et les partis politiques.
Les règles consistent à interdire tous les types de deep fakes ; l’obligation d’alerter sur l’utilisation de l’IA dans la propagande électorale, même si elle se manifeste dans des vidéos et des photos neutres ; et la restriction de l'utilisation de robots pour assurer le contact avec les électeurs (la campagne ne peut pas simuler un dialogue avec le candidat ou toute autre personne, par exemple).
Selon les règles, tout candidat qui utilise des deep fakes pour diffuser de faux contenus pourrait perdre son mandat s’il était élu. Le tribunal électoral du Brésil définit les deep fakes comme « un contenu synthétique audio, vidéo ou les deux, qui a été généré numériquement ou manipulé pour créer, remplacer ou modifier l'image ou la voix d'une personne vivante, décédée ou fictive ».
Le président du Tribunal électoral supérieur, Alexandre de Moraes, a prévu des sanctions sévères pour les candidats qui ne respectent pas la réglementation et utilisent l'IA pour nuire à leurs adversaires et déformer l'information afin de remporter les élections.
"La sanction sera la révocation de leur inscription de candidat et, s'ils ont déjà été élus, ils pourraient perdre leur mandat", a-t-il déclaré. Selon Moraes, le Brésil a approuvé l'une des « réglementations les plus modernes au monde en matière de lutte contre la désinformation et l'utilisation illicite de l'IA » dans le processus électoral.
Le nouveau règlement prévoit également la responsabilité des grandes entreprises technologiques, telles que Google et Meta (qui possède Facebook , WhatsApp et Instagram ), qui ne suppriment pas immédiatement les contenus contenant de la désinformation, des discours de haine, des idéologies nazies et fascistes, ainsi que des contenus anti-socialistes. -contenus démocratiques, racistes et homophobes.
Selon le tribunal, les plateformes doivent fournir des services « conformément à leur devoir de sollicitude et à leur position sociale ». Par conséquent, les prestataires ont le devoir d’adopter et de rendre publiques des mesures visant à prévenir ou à réduire la circulation de faits « notoirement faux ou sérieusement hors de leur contexte » qui affectent l’intégrité du processus électoral.
Il existe également un besoin pour les plateformes de promouvoir gratuitement des contenus qui informent ou clarifient des faits inexacts. Selon le juge Moraes, ces mesures sont nécessaires pour empêcher l'utilisation de l'intelligence artificielle pour nuire aux candidats et surtout aux choix des électeurs.
« Désormais, le tribunal électoral dispose d'outils efficaces pour lutter contre les distorsions dans les publicités électorales, les discours haineux, fascistes et antidémocratiques et l'utilisation de l'IA pour insérer dans le discours d'une personne quelque chose qu'elle n'a pas dit », a-t-il déclaré.
Cet article a été initialement publié par Tabata Viapiana sur The Sociable.