La capacità dell’AI di diffondere la disinformazione sta raggiungendo nuove altezze inquietanti – forse la forma più allarmante è la sua armificazione attraverso deepfakes. Recentemente, Scarlett Johansson ha chiesto un divieto sulla tecnologia di deepfake dopo che un video è apparso online con una versione generata dall’AI di lei.
di“Credo anche fermamente che il potenziale per il discorso dell’odio moltiplicato dall’IA sia una minaccia molto più grande di qualsiasi persona che ne assuma la responsabilità.
di
“Credo anche fermamente che il potenziale per il discorso dell’odio moltiplicato dall’IA sia una minaccia molto più grande di qualsiasi persona che ne assuma la responsabilità.
Le persone si rivolgono frequentemente all'IA per accelerare le cose o creare sensazioni, specialmente nell'industria dei media.Fu catturatoUtilizzando l’IA per creare citazioni e storie false.Creare storie sensazionali con l’aiuto dell’IA si è già dimostrato pericoloso.La violenza anti-immigrante nel Regno UnitoÈ nato daLa disinformazione online.
Dopo l'incidente di tre ragazze che sono state tragicamente picchiate nel Regno Unito, i ribelli hanno creato immagini generate da AI che incitano all'odio e diffondono stereotipi dannosi.Il guardianoI gruppi di estrema destra hanno anche utilizzato i generatori musicali AI per creare canzoni con contenuti xenofobi.Questo contenuto si è diffuso su app online come TikTok attraverso efficienti algoritmi di raccomandazione.
Il guardiano
Nel mese di ottobre, secondoIl WiredI motori di ricerca alimentati da AI come Google, Microsoft e Perplexity sono stati trovati a promuovere il razzismo scientifico nei risultati di ricerca.
Il Wired
Ricordate quando il xAI di Elon Musk ha rilasciato Grok-2, un generatore di immagini che utilizza Flux con quasi nessuna salvaguardia?Il vicepresidente Kamala Harris e Donald Trumpcome una coppia, suscitando profonde preoccupazioni, è questoLibertà creativa senza precedentio una pericolosa minaccia alla democrazia e all’integrità del discorso pubblico?
I deepfakes di Taylor Swift, le donne politiche e i bambini che sono andati virali lo scorso anno stanno costringendo le aziende tecnologiche a sedersi e prestare attenzione. Henry Ajder, un esperto di AI generativa che ha studiato i deepfakes per quasi un decennio ha detto:L’algoritmo“Siamo in un punto di svolta in cui la pressione dei legislatori e la consapevolezza tra i consumatori è così grande che le aziende tecnologiche non possono più ignorare il problema”.
di“Siamo a un punto di svolta in cui la pressione dei legislatori e la consapevolezza tra i consumatori è così grande che le aziende tecnologiche non possono più ignorare il problema.” – Henry Ajder, esperto di Gen AI.
di
“We are at an inflection point where the pressure from lawmakers and awareness among consumers is so great that tech companies can’t ignore the problem anymore.”Henry Ajder, esperto di Gen AI.
“Siamo in un punto di svolta in cui la pressione dei legislatori e la consapevolezza tra i consumatori è così grande che le aziende tecnologiche non possono più ignorare il problema”.“Siamo in un punto di svolta in cui la pressione dei legislatori e la consapevolezza tra i consumatori è così grande che le aziende tecnologiche non possono più ignorare il problema”.
Google ha dichiarato che èAzioni per mantenere espliciti i deepfakesPer esempio, il Regno Unito ha vietato sia la creazione che la distribuzione di deepfakes espliciti non consensuali.L'UE ha il suo AI Act e gli Stati Uniti stanno spingendo per la Defiance Act.
Nel frattempo, le startup comeSynthesia promette deepfakes iperreali con corpi pieniche si muove e mani che ondulano. Deepfakes stanno semplicemente diventando molto più realistico. Come possiamo fermare il lato maligno di questo?
AI is Aiding in Financial Fraud
Aiuta a combattere le frodi finanziarieNotizie false generate da AI diffuse sui social mediaAumentare i rischi delle bancheSecondo un nuovo studio britannico che afferma che i prestatori devono migliorare il monitoraggio per rilevare quando la disinformazione rischia di influenzare il comportamento dei clienti.
La ricerca di JuniperPrevisioniIl valore delle frodi al commercio elettronico salirà da 44,3 miliardi di dollari nel 2024 a 107 miliardi nel 2029, una crescita del 141%.
Tutto grazie all’intelligenza artificiale, che sta alimentando la sofisticazione degli attacchi in tutto l’ecosistema del commercio elettronico, con l’uso di deepfakes creati utilizzando l’intelligenza artificiale per sconfiggere i sistemi di verifica essendo una minaccia chiave.Questa minaccia, combinata con livelli crescenti di “fraude amichevole”, in cui la frode è commessa dal cliente stesso, come la frode al rimborso, minaccia sempre di più la redditività dei commercianti.
L’intelligenza artificiale sta aiutando i truffatori a rimanere davanti alle misure di sicurezza e a commettere attacchi sofisticati su una scala più ampia.
Should AI be as open as the internet?
L’intelligenza artificiale dovrebbe essere aperta come Internet?Il capo AI di Meta, Yann LeCun, haUrgenteLeCun ha spiegato che piattaforme come ChatGPT e Llama costituiranno un repository di tutta la conoscenza e cultura umana, creando un'infrastruttura condivisa come Internet oggi.
Luiha dettoNon possiamo avere un piccolo numero di assistenti di intelligenza artificiale (OpenAI ChatGPT e simili) che controllino la dieta digitale di ogni cittadino in tutto il mondo. “Questo sarà estremamente pericoloso per la diversità di pensiero, per la democrazia, per quasi tutto”, ha aggiunto.
Mentre l’intelligenza artificiale diventa sempre più simile all’uomo, dobbiamo ricordare che non è ancora umana.Tecnologia di BloombergL’AI è software e non mostra l’intelligenza umana.
Tecnologia di Bloomberg
"Ha l'intelligenza se vuoi dargli quel nome, ma non è la stessa intelligenza che ho", dice.
Navanwita Bora Sachdev, Redattore, The Tech Panda
diNavanwita Bora Sachdev, Editor, The Tech Panda