OpenAI ha cancellato account associati a note attività di propaganda in Russia, Cina e Iran; Agenzia israeliana per la campagna politica; Un gruppo precedentemente sconosciuto apparso in Russia, i ricercatori dell’istituto hanno chiamato “cattiva grammatica”. I team utilizzano la tecnologia di OpenAI per scrivere post, tradurli in diverse lingue e sviluppare software per pubblicarli automaticamente sui social media.
Nessuno di questi gruppi è riuscito a guadagnare molta popolarità; I loro account sui social media associati hanno raggiunto alcuni utenti Pochi seguaci, ha detto Ben Nimmo, principale analista dell’Intelligence and Investigations Group di OpenAI. Tuttavia, il rapporto di OpenAI mostra che gli attivisti attivi sui social media da anni utilizzano la tecnologia AI per potenziare le loro campagne.
“Li abbiamo visti produrre testo con un volume maggiore e meno errori rispetto a quanto queste operazioni hanno tradizionalmente gestito”, ha detto Nimmo, che in precedenza ha lavorato su operazioni di meta-tracciamento degli influencer, in un briefing con i giornalisti. Nimmo ha affermato che altri gruppi potrebbero utilizzare gli strumenti di OpenAI all’insaputa dell’azienda.
“Questo non è il momento di compiacersi. “La storia dimostra che le attività degli influencer che non sono andate da nessuna parte per anni possono improvvisamente esplodere se nessuno le cerca”, ha detto.
Da anni governi, partiti politici e gruppi di attivisti utilizzano i social media per influenzare la politica. Dopo le preoccupazioni sull’influenza russa nelle elezioni presidenziali del 2016, le piattaforme di social media hanno iniziato a dare un’occhiata più da vicino a come venivano utilizzate per influenzare gli elettori. Le aziende in genere impediscono ai governi e ai gruppi politici di nascondere gli sforzi concertati per influenzare gli utenti e richiedono che le pubblicità politiche rivelino chi le ha pagate.
I ricercatori che si occupano di disinformazione temono che, man mano che gli strumenti di intelligenza artificiale in grado di generare testo, immagini e video realistici diventeranno più ampiamente disponibili, diventerà più difficile rilevare e rispondere alla disinformazione o alle attività di influenza nascoste online. Quest’anno milioni di persone voteranno alle elezioni in tutto il mondo e i deepfake basati sull’intelligenza artificiale sono già proliferati.
OpenAI, Google e altre società di intelligenza artificiale stanno lavorando su una tecnologia per identificare i deepfake con i propri strumenti, ma tale tecnologia non è ancora stata provata. Alcuni esperti di intelligenza artificiale ritengono che i rilevatori di deepfake non siano del tutto efficaci.
All’inizio di quest’anno, un gruppo affiliato al Partito comunista cinese avrebbe appoggiato l’audio generato dall’intelligenza artificiale di un candidato che correva alle elezioni taiwanesi rispetto a un altro. Tuttavia, il politico, il fondatore della Foxconn Terry Koh, non ha sostenuto l’altro politico.
A gennaio, gli elettori delle primarie del New Hampshire hanno ricevuto una chiamata robotica che sembrava provenire dal presidente Biden, ma che è stata presto identificata come AI. La settimana scorsa, un democratico che ha affermato di aver effettuato una chiamata robotica è stato incriminato con l’accusa di repressione degli elettori e furto d’identità di candidato.
Il rapporto di OpenAI descrive in dettaglio come cinque gruppi hanno utilizzato la tecnologia dell’azienda nei loro sforzi per influenzare le attività. Spamouflage, un gruppo cinese precedentemente noto, ha utilizzato la tecnologia di OpenAI per svolgere attività di ricerca sui social media e scrivere post in cinese, coreano, giapponese e inglese, ha affermato la società. Anche un gruppo iraniano chiamato International Union of Virtual Media ha utilizzato la tecnologia di OpenAI per creare articoli pubblicati sul proprio sito.
Un gruppo precedentemente sconosciuto, Bad Grammar, ha utilizzato la tecnologia OpenAI per creare un programma in grado di pubblicare automaticamente post sull’app di messaggistica Telegram. Bad Grammar ha quindi utilizzato la tecnologia OpenAI per generare post e Secondo il rapporto, in russo e inglese si sostiene che gli Stati Uniti non dovrebbero sostenere l’Ucraina.
Il rapporto ha scoperto che una società di campagne politiche israeliane chiamata Stoic ha utilizzato OpenAI per creare post pro-Israele sulla guerra di Gaza e prendere di mira persone in Canada, Stati Uniti e Israele, ha affermato OpenAI. Mercoledì, anche il proprietario di Facebook Meta ha pubblicizzato il lavoro di Stoic, dicendo che aveva rimosso 510 account Facebook e 32 account Instagram utilizzati dal gruppo. La società ha detto ai giornalisti che alcuni account sono stati violati, mentre altri erano account di persone fittizie.
I resoconti in questione spesso commentano le pagine di personaggi noti o organi di stampa che mostrano studenti universitari americani, afroamericani e altri filo-israeliani. I commenti hanno sostenuto l’esercito israeliano e hanno avvertito i canadesi che “l’Islam radicale” minaccia i valori liberali lì, ha detto Meta.
L’intelligenza artificiale ha agito sulla formulazione di alcuni commenti, che sono sembrati strani e fuori contesto dagli utenti reali di Facebook. La performance è stata scarsa, ha affermato la società, attirando solo circa 2.600 follower legittimi.
META opera dopo il Digital Forensics Research Lab dell’Atlantic Council fu scoperto Rete in X
L’anno scorso, i ricercatori della disinformazione hanno suggerito che i chatbot basati sull’intelligenza artificiale potrebbero avere conversazioni lunghe e dettagliate con persone specifiche online, cercando di influenzarle in una particolare direzione. Gli strumenti di intelligenza artificiale possono acquisire grandi quantità di dati sugli individui e inviare loro messaggi direttamente.
OpenAI non ha identificato alcuna applicazione all’avanguardia dell’intelligenza artificiale, ha affermato Nimmo. “È più un’evoluzione che una rivoluzione”, ha detto. “Non c’è niente da dire che non lo vedremo in futuro.”
Joseph Menn ha contribuito a questo rapporto.
Leave a Reply