paint-brush
Os perigos da tecnologia DeepFake: explorando os riscos potenciais de vídeos e imagens gerados por IApor@sammynathaniels
6,562 leituras
6,562 leituras

Os perigos da tecnologia DeepFake: explorando os riscos potenciais de vídeos e imagens gerados por IA

por Samuel Bassey15m2023/05/09
Read on Terminal Reader

Muito longo; Para ler

Deepfakes são vídeos e imagens gerados por IA que podem alterar ou fabricar a realidade de pessoas, eventos e objetos. Essa tecnologia é um tipo de inteligência artificial que pode criar ou manipular imagens, vídeos e áudio que parecem realistas, mas não são autênticos. Ele pode ser usado para vários fins, como entretenimento, educação, pesquisa ou arte. No entanto, também pode representar sérios riscos para os indivíduos e para a sociedade, incluindo a disseminação de desinformação, violação da privacidade, danos à reputação, personificação da identidade e influência na opinião pública.
featured image - Os perigos da tecnologia DeepFake: explorando os riscos potenciais de vídeos e imagens gerados por IA
Samuel Bassey HackerNoon profile picture
0-item
1-item

Em abril de 2020, um vídeo da primeira-ministra da Bélgica, Sophie Wilmès, dando palestra sobre o coronavírus pandemia e sua ligação com as mudanças climáticas viralizou nas redes sociais. O vídeo foi compartilhado como parte de uma campanha de conscientização sobre questões ambientais.


No entanto, o vídeo não era real. Foi uma farsa profunda, gerada pela Extinction Rebellion Belgium usando tecnologia de IA que pode manipular as expressões faciais e a voz de qualquer pessoa. O vídeo foi rotulado como deep fake, mas muitas pessoas não perceberam ou ignoraram o aviso. Alguns espectadores ficaram confusos e indignados com o discurso falso, enquanto outros elogiaram a primeira-ministra por sua coragem e visão.


Este exemplo mostra como a tecnologia deep fake pode ser usada para espalhar desinformação e influenciar a opinião pública ao se passar por figuras públicas importantes. Também mostra como pode ser difícil detectar e verificar deep fakes, especialmente quando eles são compartilhados em plataformas de mídia social que têm recursos limitados de moderação e verificação de fatos.


Imagine que você está assistindo a um vídeo de sua celebridade favorita fazendo um discurso. Você fica impressionado com a eloquência e o carisma deles e concorda com a mensagem deles. Mas então você descobre que o vídeo não era real. Era uma farsa profunda, uma mídia sintética criada por IA que pode manipular a aparência e a voz de qualquer pessoa. Você se sente enganado e confuso.


Como você pode confiar no que vê e ouve online?


Este não é mais um cenário hipotético; isso agora é real. Existem vários deepfakes de atores proeminentes, celebridades, políticos e influenciadores circulando na internet. Alguns incluem deepfakes de Tom Cruise e Keanu Reeves no TikTok, entre outros.


Em termos simples, Deepfakes são vídeos e imagens gerados por IA que podem alterar ou fabricar a realidade de pessoas, eventos e objetos. Essa tecnologia é um tipo de inteligência artificial que pode criar ou manipular imagens, vídeos e áudio que parecem realistas, mas não são autênticos.

A tecnologia Deepfake está se tornando mais sofisticada e acessível a cada dia. Ele pode ser usado para vários fins, como entretenimento, educação, pesquisa ou arte. No entanto, também pode representar sérios riscos para os indivíduos e para a sociedade, como espalhar desinformação, violar a privacidade, prejudicar a reputação, fazer-se passar por identidade e influenciar a opinião pública.


Em meu último artigo, discuti a tecnologia Deepfake, como ela funciona e seus impactos positivos e negativos. Neste artigo, explorarei os perigos da tecnologia deep fake e como podemos nos proteger de seus possíveis danos.


Como a tecnologia Deepfake é uma ameaça potencial para a sociedade?

eu uma vez e acredite, senti que tinha que ser ele mesmo quando a mensagem do vídeo beirava a capacidade de perceber o real do irreal. Eu nunca entendi a mensagem até chegar ao final do vídeo. Aparentemente, não era Morgan Freeman, mas um Deepfake Morgan Freeman.


Antes desse conhecimento, me senti bem ouvindo um dos meus atores mais reverenciados de todos os tempos, apenas para ficar um pouco desapontado ao final por ter, de fato, ouvido uma simulação de IA. Nesse ritmo, e se vários vídeos que vemos forem apenas deepfakes? A ameaça à realidade está se tornando cada vez mais alarmante.


A tecnologia deepfake é uma ameaça potencial para a sociedade porque pode:

  • Espalhe desinformação e notícias falsas que podem influenciar a opinião pública, minar a democracia e causar agitação social.
  • Violar a privacidade e o consentimento usando dados pessoais sem permissão e criando abuso sexual, chantagem ou assédio com base em imagens.
  • Prejudique a reputação e a credibilidade ao se passar por ou difamar indivíduos, organizações ou marcas.
  • Crie riscos de segurança permitindo roubo de identidade, fraude ou ataques cibernéticos.
  • A tecnologia deepfake também pode corroer a confiança no ecossistema digital, dificultando a verificação da autenticidade e da fonte das informações.


Os perigos e usos negativos da tecnologia Deepfake

Por mais que haja alguns pontos positivos na tecnologia deepfake, os negativos superam facilmente os positivos em nossa sociedade em crescimento. Alguns dos usos negativos de deepfakes incluem:


  1. Deepfakes podem ser usados para criar material adulto falso apresentando celebridades ou pessoas comuns sem o seu consentimento, violando sua privacidade e dignidade. Porque ficou muito fácil um rosto ser substituído por outro e uma voz alterada em um vídeo. Surpreendente, mas verdadeiro. Confira este thriller de , que substituiu Tom Holland por um deepfake de Tobey Maguire, o primeiro Homem-Aranha. Você nunca notaria a diferença até que lhe dissessem. Se for assim tão fácil, qualquer alteração de vídeo é possível.


  2. Deepfakes podem ser usados para espalhar desinformação e notícias falsas que podem enganar ou manipular o público. Deepfakes podem ser usados para criar material fraudulento, como discursos, entrevistas ou eventos falsos, envolvendo políticos, celebridades ou outras figuras influentes.

    Como mencionei no início do artigo, uma deepfake da primeira-ministra da Bélgica, Sophie Wilmès, fazendo um discurso, a verdadeira Sophie Wilmès nunca fez. Outro estudo de caso é um fazendo um anúncio de utilidade pública.


  3. Como as trocas de rosto e as mudanças de voz podem ser realizadas com a tecnologia deepfake, ela pode ser usada para minar a democracia e a estabilidade social, influenciando a opinião pública, incitando a violência ou interrompendo as eleições.

    Propaganda falsa pode ser criada, mensagens de voz falsas e vídeos muito difíceis de dizer são irreais e podem ser usados para influenciar a opinião pública, causar calúnias ou chantagens envolvendo candidatos, partidos ou líderes políticos.


  4. Deepfakes podem ser usados para prejudicar a reputação e a credibilidade ao se passar por ou difamar indivíduos, organizações ou marcas. Imagine poder obter o deepfake de Keanu Reeves no TikTok criando avaliações, depoimentos ou endossos falsos envolvendo clientes, funcionários ou concorrentes.


    Para quem não conhece, eles são fáceis de convencer e, em caso de algo dar errado, pode levar a danos na reputação e perda de confiança no ator.


  5. Deepfakes podem ser usados para criar riscos de segurança, permitindo roubo de identidade, fraude ou ataques cibernéticos. Em 2019, o CEO de uma empresa de energia com sede no Reino Unido recebeu uma ligação de seu chefe, o chefe da controladora alemã da empresa, ordenando a transferência de € 220.000 para um fornecedor na Hungria. Segundo fontes de notícias , o CEO reconheceu o "leve sotaque alemão e a melodia" da voz de seu chefe e cumpriu a diretiva de enviar os fundos em uma hora.

    No entanto, o chamador ligou novamente para outra transferência e então ficou suspeito e mais tarde foi confirmado que era uma fraude. Infelizmente, isso foi apenas um deepfake da voz de seu chefe e os € 220.000 iniciais foram transferidos para o México e canalizados para outras contas.

    Mas este não é o único incidente de fraude deepfake. A tecnologia Deepfake tem sido usada em diversas situações para criar golpes de phishing, engenharia social ou outros golpes envolvendo informações pessoais ou financeiras.


Implicações éticas, legais e sociais da tecnologia deepfake

  1. Implicações éticas

    A tecnologia deepfake pode violar os direitos morais e a dignidade das pessoas cujas imagens ou vozes são usadas sem seu consentimento, como a criação de material pornográfico falso, material calunioso ou roubo de identidade envolvendo celebridades ou pessoas comuns. A tecnologia deepfake também pode minar os valores da verdade, confiança e responsabilidade na sociedade quando usada para espalhar desinformação, notícias falsas ou propaganda que pode enganar ou manipular o público.


  2. Implicações legais

    A tecnologia deepfake pode representar desafios para as estruturas legais e regulamentações existentes que protegem os direitos de propriedade intelectual, direitos de difamação e direitos contratuais, pois pode infringir os direitos autorais, marcas registradas ou direitos de publicidade das pessoas cujas imagens ou vozes são usadas sem permissão .


    A tecnologia deepfake pode violar os direitos de privacidade das pessoas cujos dados pessoais são usados sem seu consentimento. Pode difamar a reputação ou o caráter das pessoas que são falsamente retratadas de forma negativa ou prejudicial.


  3. Implicações sociais

    A tecnologia deepfake pode ter impactos negativos no bem-estar social e na coesão de indivíduos e grupos, pois pode causar danos psicológicos, emocionais ou financeiros às vítimas da manipulação do deepfake, que podem sofrer de angústia, ansiedade, depressão ou perda de renda.

    Também pode criar divisões sociais e conflitos entre diferentes grupos ou comunidades, incitando violência, ódio ou discriminação contra certos grupos com base em sua raça, gênero, religião ou afiliação política.


Receio que, no futuro, a tecnologia deepfake possa ser usada para criar formas mais sofisticadas e maliciosas de desinformação e propaganda se não for controlada. Também pode ser usado para criar evidências falsas de crimes, escândalos ou corrupção envolvendo oponentes políticos ou ativistas ou para criar depoimentos, endossos ou avaliações falsas envolvendo clientes, funcionários ou concorrentes.


Imagine ter vídeos deepfake de líderes mundiais declarando guerra, fazendo confissões falsas ou endossando ideologias extremistas. Isso pode ser muito prejudicial para o mundo em geral.


Os desafios de detectar e regular a tecnologia Deepfake

O estado atual da detecção e regulamentação de deepfake ainda está evoluindo e enfrenta muitos desafios. Algumas das razões pelas quais é difícil identificar e impedir que o conteúdo deepfake se espalhe online são:


  1. Avanço e facilidade de acesso: a qualidade e o realismo do conteúdo deepfake estão melhorando à medida que as redes neurais artificiais que os geram se tornam mais sofisticadas e treinadas em conjuntos de dados maiores e mais diversos. A disponibilidade e acessibilidade de software e serviços deepfake também estão aumentando, tornando mais fácil para qualquer pessoa criar e compartilhar conteúdo deepfake online.
  2. Não escalabilidade e falta de confiabilidade dos métodos de detecção: os métodos existentes para detectar conteúdo deepfake dependem da análise de vários recursos ou artefatos das imagens, vídeos ou áudio, como expressões faciais, movimentos dos olhos, textura da pele, iluminação, sombras ou ruído de fundo . No entanto, esses métodos nem sempre são precisos ou consistentes, especialmente quando o conteúdo deepfake é de baixa qualidade, compactado ou editado. Além disso, esses métodos não são escaláveis ou eficientes, pois exigem muitos recursos computacionais e tempo para processar grandes quantidades de dados.
  3. Regulamentos complexos e controversos: as questões legais e éticas em torno do conteúdo deepfake não são claras ou uniformes em diferentes jurisdições, contextos e propósitos. Por exemplo, o conteúdo deepfake pode implicar vários direitos e interesses, como direitos de propriedade intelectual, direitos de privacidade, direitos de difamação, direitos contratuais, direitos de liberdade de expressão e interesse público. No entanto, esses direitos e interesses podem entrar em conflito ou se sobrepor, criando dilemas e compensações para legisladores e reguladores.

Além disso, a aplicação e supervisão da regulamentação deepfake podem enfrentar dificuldades práticas e técnicas, como identificar os criadores e distribuidores de conteúdo deepfake, estabelecer sua responsabilidade e responsabilidade e impor sanções ou soluções apropriadas.


Estratégias e soluções atuais e futuras para detectar, prevenir e combater a tecnologia Deepfake


  1. Políticas das plataformas de mídia social: as plataformas de mídia social podem implementar políticas, diretrizes e padrões para regular a criação e disseminação de conteúdo deepfake em suas plataformas, proibindo ou rotulando deepfakes prejudiciais ou enganosos ou exigindo que os usuários divulguem o uso da tecnologia deepfake . Essa estratégia pode ser eficaz na redução da exposição e disseminação de deepfakes prejudiciais ou enganosos em plataformas populares e influentes, como Facebook, Twitter ou YouTube. As ferramentas de detecção e verificação de deepfake, como marcas d'água digitais, sistemas de proveniência baseados em blockchain ou mecanismos de pesquisa reversa de imagens também podem ser implantadas para orientar contra o upload de qualquer deepfake. Essas plataformas também podem colaborar com outras partes interessadas, como verificadores de fatos, pesquisadores ou grupos da sociedade civil, para monitorar e combater o conteúdo deepfake. No entanto, essas soluções podem enfrentar desafios como escalabilidade, precisão, transparência e responsabilidade.


  2. Algoritmos de detecção: os algoritmos de detecção podem usar técnicas de aprendizado de máquina e visão computacional para analisar os recursos e características do conteúdo deepfake, como expressões faciais, movimentos oculares, iluminação ou qualidade de áudio, e identificar inconsistências ou anomalias que indicam manipulação. Os pesquisadores podem desenvolver e melhorar as tecnologias de detecção e verificação de deepfake, como redes neurais artificiais, algoritmos de visão computacional ou sistemas de autenticação biométrica para melhorar os algoritmos de detecção.

    Eles também podem criar e compartilhar conjuntos de dados e benchmarks para avaliar os métodos de detecção e verificação de deepfake e conduzir estudos interdisciplinares sobre as implicações sociais e éticas da tecnologia deepfake. Essa estratégia pode ser eficaz na análise de features ao identificar inconsistências ou anomalias que indiquem manipulação. No entanto, essas soluções podem enfrentar desafios como disponibilidade, qualidade e privacidade de dados, bem como dilemas éticos e risco de uso duplo.


  3. Reação da Internet: Refere-se à resposta coletiva de usuários e comunidades on-line a conteúdo deepfake, como sinalizar, denunciar, desmascarar ou criticar deepfakes suspeitos ou prejudiciais, ou criar contra-narrativas ou paródias para expô-los ou ridicularizá-los. Os usuários podem adotar habilidades de pensamento crítico e alfabetização midiática para identificar e verificar conteúdo deepfake, e também podem usar ferramentas de detecção e verificação de deepfake, como extensões de navegador, aplicativos móveis ou plataformas online para detectar deepfakes que encontram em mídias sociais ou outras plataformas, que eles podem denunciar ou sinalizar como conteúdo deepfake. A estratégia de reação da internet pode ser eficaz na mobilização da resposta coletiva de usuários e comunidades online ao conteúdo deepfake. No entanto, essas soluções podem enfrentar desafios como vieses cognitivos, sobrecarga de informações, divisão digital e problemas de confiança.


  4. Iniciativas da DARPA: as iniciativas da DARPA referem-se aos projetos de pesquisa e desenvolvimento financiados pela Agência de Projetos de Pesquisa Avançada de Defesa (DARPA) para promover o desenvolvimento de tecnologias de detecção e mitigação de deepfake, como a criação de conjuntos de dados em larga escala, benchmarks e desafios para pesquisa de deepfake . Eles visam desenvolver tecnologias que possam detectar e analisar automaticamente deepfakes e outras formas de manipulação de mídia. A DARPA tem dois programas dedicados à detecção de deepfakes: Media Forensics (MediFor) e Semantic Forensics (SemaFor).


    • O Media Forensics (MediFor) , concluído no ano fiscal de 2021, deveria desenvolver algoritmos para avaliar automaticamente a integridade de fotos e vídeos e fornecer aos analistas informações sobre como o conteúdo falsificado foi gerado. O programa supostamente explorou técnicas para identificar as inconsistências audiovisuais presentes em deepfakes, como inconsistências em pixels (integridade digital), inconsistências com as leis da física (integridade física) e inconsistências com outras fontes de informação (integridade semântica). Espera-se que as tecnologias MediFor façam a transição para comandos operacionais e a comunidade de inteligência.


    • A Semantic Forensics (SemaFor) , anunciada em 2021, busca dar vantagem aos analistas na luta entre detectores e manipuladores, desenvolvendo tecnologias capazes de automatizar a detecção, atribuição e caracterização de ativos de mídia falsificados. O programa visa explorar uma fraqueza crítica em geradores de mídia automatizados: a dificuldade de obter toda a semântica correta. Por exemplo, garantir que tudo esteja alinhado, desde o texto de uma notícia até a imagem que a acompanha, até os elementos da própria imagem. A SemaFor também está desenvolvendo tecnologias para a montagem e curadoria automática das evidências fornecidas pelos algoritmos de detecção, atribuição e caracterização.

      Além disso, a DARPA construiu modelos defensivos deepfake para documentar como as pessoas movem suas cabeças e músculos faciais. A agência usou esses dados e os integrou a uma ferramenta de software para analisar vídeos de “indivíduos de alto perfil” e comparar comportamentos com o indivíduo real.


  5. Resposta Legal: Esta é a aplicação de leis e regulamentos existentes ou novos para abordar as questões legais e éticas levantadas pela tecnologia deepfake, como proteger os direitos e interesses das vítimas de abuso de deepfake ou responsabilizar os perpetradores por suas ações . Os governos podem promulgar leis e regulamentos que proíbam ou restrinjam a criação e disseminação de conteúdo deepfake prejudicial, como pornografia não consensual, difamação ou interferência eleitoral. Eles também podem apoiar a pesquisa e o desenvolvimento de tecnologias de detecção e verificação de deepfake, bem como campanhas de educação e conscientização do público.

    Algumas leis abordam a tecnologia deepfake em diferentes países, mas não são muito abrangentes ou consistentes.


    Por exemplo:

    • Nos EUA, a Lei de Autorização de Defesa Nacional (NDAA) exige que o Departamento de Segurança Interna (DHS) emita um relatório anual sobre deepfakes e seus possíveis danos. A Lei de Identificação de Saídas de Redes Adversárias Generativas exige que a National Science Foundation (NSC) e o National Institute of Standards (NIS) and Technology pesquisem tecnologia deepfake e medidas de autenticidade. No entanto, não há nenhuma lei federal que proíba ou regule explicitamente a tecnologia deepfake.

    • Na China , uma nova lei exige que o material manipulado tenha o consentimento do sujeito e tenha assinaturas digitais ou marcas d'água e que os provedores de serviços deepfake ofereçam maneiras de "refutar rumores". No entanto, algumas pessoas temem que o governo possa usar a lei para restringir a liberdade de expressão ou censurar vozes dissidentes.

    • Na Índia, não existe uma lei explícita que proíba deepfakes, mas algumas leis existentes, como a Lei de Tecnologia da Informação ou o Código Penal Indiano, podem ser aplicáveis em casos de difamação, fraude ou obscenidade envolvendo deepfakes.

    • No Reino Unido, também não há lei específica sobre deepfakes, mas algumas doutrinas legais, como privacidade, proteção de dados, propriedade intelectual ou falsificação, podem ser relevantes em disputas relacionadas a um deepfake indesejado ou vídeo manipulado.


    As respostas legais podem ser uma estratégia eficaz para combater a dubiedade dos deepfakes. No entanto, essas soluções podem enfrentar desafios, como equilibrar a liberdade de expressão e os direitos de privacidade, aplicar a jurisdição internacional e adaptar-se à tecnologia em rápida mudança.


Recomendações e orientações para pesquisas ou ações futuras sobre a tecnologia Deepfake

A tecnologia DeepFake ainda está em ascensão e evoluindo rapidamente para versões melhores e mais realistas todos os dias. Isso exige uma necessidade de ser mais proativo no combate à ameaça que pode acompanhar essa tecnologia. Abaixo estão algumas das ações que acredito que podem ser implementadas para mitigar seu impacto negativo:


  • Verificação e autenticação de conteúdo: os consumidores devem sempre verificar a origem e a autenticidade do conteúdo que encontram ou criam, usando imagem reversa ou pesquisa de vídeo, sistemas de verificação baseados em blockchain ou técnicas de marca d'água digital.


  • Fontes de informação múltiplas e confiáveis: os consumidores de mídia digital devem sempre buscar fontes de informação múltiplas e confiáveis para corroborar ou refutar o conteúdo que encontram ou criam, consultando meios de comunicação, verificadores de fatos ou especialistas respeitáveis.


  • Desenvolvimento de algoritmos de detecção rápida, robusta e adaptável e ferramentas para verificação e atribuição: Deve haver mais foco no desenvolvimento de algoritmos de detecção mais robustos e adaptativos que possam lidar com o crescente realismo e diversidade de conteúdo deepfake, como usando multimodal ou cross- abordagens de domínio, incorporando feedback humano ou alavancando o aprendizado contraditório. Novas ferramentas e métodos para verificação e atribuição de conteúdo digital devem ser explorados, como o uso de sistemas de verificação baseados em blockchain, técnicas de marca d'água digital ou pesquisa reversa de imagens ou vídeos, e mais pesquisas são necessárias para desenvolver e melhorar as tecnologias de detecção e verificação de deepfake, bem como entender e abordar as implicações sociais e éticas da tecnologia deepfake.


  • Estabelecimento de estruturas e padrões éticos e legais para a tecnologia deepfake: mais pesquisas devem ser feitas para criar estruturas e padrões éticos e legais para a tecnologia deepfake, como definir os direitos e responsabilidades dos criadores e consumidores de conteúdo deepfake, estabelecendo os limites e critérios para usos legítimos e ilegítimos da tecnologia deepfake ou aplicação de leis e regulamentos para proteger as vítimas e punir os autores do abuso deepfake. Mais ações legais são necessárias para promulgar e aplicar leis e regulamentos que protejam os direitos e interesses das vítimas e alvos de conteúdo deepfake prejudicial, como pornografia não consensual, difamação ou interferência eleitoral.


    As ações devem ser coordenadas, consistentes e adaptáveis, levando em consideração a natureza transfronteiriça do conteúdo deepfake e a natureza em rápida mudança da tecnologia deepfake, e devem ser equilibradas, proporcionais e respeitosas, levando em conta a liberdade de expressão e os direitos de privacidade dos criadores e consumidores de conteúdo deepfake.


  • Promoção da educação e conscientização sobre a tecnologia deepfake: pesquisas ou ações futuras sobre a tecnologia deepfake devem promover a educação e a conscientização sobre a tecnologia deepfake entre várias partes interessadas, por exemplo, fornecendo treinamento e orientação para jornalistas, verificadores de fatos, educadores, formuladores de políticas e o público em geral sobre como criar, consumir e responder ao conteúdo deepfake de forma responsável e crítica.


  • Denunciar ou sinalizar conteúdo suspeito ou prejudicial: os consumidores devem estar cientes da existência e prevalência de conteúdo deepfake e devem usar o pensamento crítico e as habilidades de alfabetização da mídia para identificá-lo e verificá-lo. Eles devem ser rápidos em denunciar ou sinalizar o conteúdo deepfake que encontrarem nas mídias sociais ou outras plataformas, usando as ferramentas ou mecanismos de denúncia fornecidos pelas plataformas de mídia social, agências de aplicação da lei ou organizações da sociedade civil.


  • Respeite os direitos e interesses dos outros: Os produtores de mídia digital devem sempre respeitar os direitos e interesses dos outros ao criar ou compartilhar conteúdo que envolva a tecnologia deepfake, obtendo consentimento, divulgando o uso da tecnologia deepfake ou evitando propósitos maliciosos ou enganosos. Eles devem estar cientes dos possíveis danos e benefícios da tecnologia deepfake e devem usá-la de forma responsável e ética, seguindo os princípios de consentimento, integridade e responsabilidade.


Conclusão

A tecnologia deepfake tem o potencial de criar conteúdo falso ou enganoso que pode prejudicar indivíduos ou grupos de várias maneiras. No entanto, a tecnologia deepfake também pode ter usos positivos para entretenimento, mídia, política, educação, arte, saúde e acessibilidade. Portanto, é importante equilibrar os riscos e benefícios da tecnologia deepfake e desenvolver formas eficazes e éticas de detectá-la, preveni-la e regulá-la.


Para atingir esse objetivo, governos, plataformas, pesquisadores e usuários precisam colaborar e coordenar seus esforços, bem como aumentar sua consciência e responsabilidade. Ao fazer isso, podemos aproveitar o poder e os benefícios potenciais da tecnologia deepfake, minimizando seus danos.