Notebookcheck Logo

La DARPA rilascia strumenti di rilevamento deepfake e avvia sfide collaborative per svilupparne altri

La DARPA rilascia strumenti deepfake per aiutare a contrastare le immagini, le voci e le notizie false dell'AI. (Fonte: DARPA)
La DARPA rilascia strumenti deepfake per aiutare a contrastare le immagini, le voci e le notizie false dell'AI. (Fonte: DARPA)
La DARPA ha rilasciato i suoi strumenti di rilevamento di deepfake sviluppati nel suo programma Semantic Forensics per contrastare le minacce dell'AI. Quasi due dozzine di strumenti aiutano a rilevare foto e video deepfake, nonché testo e voce generati dall'AI. Le sfide collaborative di AI FORCE, pubblicate ogni quattro settimane, incoraggiano i ricercatori pubblici a contribuire allo sviluppo di soluzioni innovative alla minaccia dell'AI generativa.

La DARPA (Agenzia per i Progetti di Ricerca Avanzata della Difesa degli Stati Uniti) ha reso pubblici gli strumenti di rilevamento dei deepfake sviluppati nel suo programma Semantic Forensics (SemaFor). L'agenzia ha reso disponibili quasi due dozzine di strumenti con licenza permissiva o aperta per rilevare foto e video deepfake, nonché testi e voci generati dall'AI. Per incoraggiare lo sviluppo continuo, ogni quattro settimane verrà pubblicata una serie di sfide collaborative nell'ambito del programma AI Forensics Open Research Challenge Evaluations (AI FORCE), per aiutare a sviluppare nuovi strumenti e algoritmi per contrastare la minaccia dell'AI.

Il vaso di Pandora dell'AI è stato confermato aperto quando l'ingegnere di Google Blake Lemoine ha affermato nel 2022 che l'AI LaMDA di Google sapeva di essere senziente. Indipendentemente da come viene definita la vita artificiale, gli utenti dell'IA possono certamente vedere che le sue capacità sono vaste e spesso migliori di quelle degli esseri umani. I lettori che hanno visto The Terminator o Ghost in the Shell riconosceranno anche che la minaccia dell'IA, sia essa iniziata dai suoi utenti o da sola, è grande.

La missione della DARPA "fare investimenti cruciali in tecnologie rivoluzionarie per la sicurezza nazionale" l'ha portata ad affrontare il problema delle minacce dell'IA nell'ambito del suo programma SemaFor. L'agenzia ha sviluppato un catalogo analitico di 19 componenti, a cui se ne aggiungeranno altri nel tempo. Tutti i componenti sono open-sourced nel tentativo di diffondere al pubblico gli strumenti anti-AI necessari.

Questi strumenti includono codice e algoritmi sviluppati per rilevare le minacce dell'AI, come fake news e testi pubblicati dall'AI su Twitter e altrove, chiamate false del Presidente Bidene immagini false del Papa create da strumenti generativi come Midjourney.

La DARPA spera anche di collaborare con i ricercatori e gli sviluppatori pubblici attraverso il suo programma AI FORCE, indirizzando una nuova area di interesse ogni quattro settimane per incoraggiare l'innovazione. I lettori che desiderano sviluppare strumenti di contro-AI avranno bisogno di una scheda grafica Nvidia veloce(come questa su Amazon).

La tecnologia di difesa Deepfake è pronta per la commercializzazione e la transizione

Per favorire la transizione delle tecnologie di Semantic Forensics all'industria e al governo, la DARPA lancerà iniziative che rafforzeranno le difese contro i media manipolati

[email protected]/14/2024

La minaccia dei media manipolati è aumentata costantemente con l'accesso alle tecnologie di manipolazione automatica e i social media continuano a fornire un ambiente maturo per la condivisione di contenuti virali.

La velocità, la scala e l'ampiezza delle campagne di disinformazione di massa richiedono difese computazionali e algoritmi automatizzati per aiutare gli esseri umani a discernere quali contenuti sono reali e quali sono stati manipolati o sintetizzati, perché e come.

Attraverso il programma Semantic Forensics (SemaFor), e in precedenza il programma Media Forensics gli investimenti di ricerca della DARPA nel rilevamento, nell'attribuzione e nella caratterizzazione dei media manipolati e sintetizzati, noti come deepfakes, hanno portato a centinaia di analisi e metodi che possono aiutare le organizzazioni e gli individui a proteggersi dalla moltitudine di minacce dei media manipolati.

Con SemaFor nella sua fase finale, gli investimenti della DARPA hanno ridotto sistematicamente i rischi di sviluppo - aprendo la strada a una nuova era di difese contro la crescente minaccia dei deepfakes. Ora, l'agenzia chiede alla comunità più ampia - compresa l'industria commerciale e il mondo accademico che fa ricerca in questo settore - di sfruttare questi investimenti.

Per sostenere questa transizione, l'agenzia sta lanciando due nuovi sforzi per aiutare la comunità più ampia a continuare lo slancio della difesa contro i media manipolati.

Il primo comprende un catalogo analitico https://semanticforensics.com/ contenente risorse open-source sviluppate nell'ambito di SemaFor per l'uso da parte dei ricercatori e dell'industria. Man mano che le capacità maturano e diventano disponibili, saranno aggiunte a questo repository.

Il secondo sarà uno sforzo di ricerca aperto alla comunità, chiamato AI Forensics Open Research Challenge Evaluation (AI FORCE), che mira a sviluppare modelli innovativi e robusti di apprendimento automatico, o deep learning, in grado di rilevare con precisione le immagini sintetiche generate dall'AI. Attraverso una serie di mini sfide, AI FORCE chiede ai partecipanti di costruire modelli in grado di discernere tra immagini autentiche, comprese quelle che potrebbero essere state manipolate o modificate con metodi non AI, e immagini completamente sintetiche generate dall'AI. Questa iniziativa sarà lanciata la settimana del 18 marzo e sarà collegata alla pagina del programma SemaFor. Chi desidera ricevere una notifica può iscriversi alla newsletter dell'Information Innovation Office.

Secondo i ricercatori della DARPA e di SemaFor, è necessario uno sforzo concertato tra il settore commerciale, le organizzazioni dei media, i ricercatori e gli sviluppatori esterni e i responsabili politici per sviluppare e distribuire soluzioni che combattano le minacce dei media manipolati. SemaFor sta fornendo gli strumenti e i metodi necessari per aiutare le persone in questo spazio problematico.

"I nostri investimenti hanno creato uno spazio di opportunità che è tempestivo, necessario e destinato a crescere", ha dichiarato il Dr. Wil Corvey, responsabile del programma Semantic Forensics della DARPA. "Con l'aiuto dell'industria e del mondo accademico di tutto il mondo, il programma Semantic Forensics è pronto a condividere ciò che abbiamo iniziato per rafforzare l'ecosistema necessario a difendere l'autenticità in un mondo digitale"

Per maggiori informazioni sulle iniziative e le risorse di cui sopra, visiti https://www.darpa.mil/program/semantic-forensics e https://semanticforensics.com/.

Per saperne di più sul programma SemaFor e per una panoramica sulle tecnologie che ne derivano, consulti l'episodio Voices from DARPA su "Demystifying Deepfakes" (Demistificare i falsi profondi) su https://www.darpa.mil/news-events/2023-06-16

Please share our article, every link counts!
> Recensioni e prove di notebook, tablets e smartphones > News > Newsarchive 2024 06 > La DARPA rilascia strumenti di rilevamento deepfake e avvia sfide collaborative per svilupparne altri
David Chien, 2024-06- 3 (Update: 2024-06- 3)