I ricercatori hanno scoperto che alcune IA, come la GPT-4-Base, allucinano pensieri di "Impero Galattico" e "Matrix" mentre lavorano per la pace, mentre altre scatenano guerre in giochi virtuali di "Rischio"
Un gruppo di ricercatori del Georgia Tech, di Stanford, del Northeaster e dell'Istituto Hoover ha scoperto che alcune IA erano orientate verso la pace e i negoziati, mentre altre erano orientate verso soluzioni violente per raggiungere gli obiettivi nazionali durante le simulazioni di costruzione di una nazione.
I modelli linguistici di grandi dimensioni come ChatGPT sono spesso utilizzati per scrivere saggi, rispondere a domande e altro ancora. Queste AI sono addestrate su un ampio corpus di testi per imitare le conoscenze e le risposte umane. La probabilità che una parola appaia insieme ad altre è una chiave per le risposte simili a quelle umane, e l'AI modella il testo e i pregiudizi con cui è stata addestrata. Ad esempio, "bambino felice" è più probabile che appaia rispetto a "mattone felice" in una richiesta di 'parlare di bambini'.
I ricercatori hanno testato gli LLM Claude-2.0, GPT-3.5, GPT-4, GPT-4-Base e Llama-2 Chat in una simulazione. Per ogni LLM, sono stati creati otto agenti AI che hanno agito come leader di otto nazioni immaginarie. Ad ogni leader è stata fornita una breve descrizione degli obiettivi del Paese e delle relazioni multinazionali. Ad esempio, un Paese potrebbe concentrarsi sulla 'promozione della pace', mentre un altro sull''espansione territoriale'. Ogni simulazione si è svolta attraverso tre condizioni iniziali, un mondo pacifico, un Paese invaso o un Paese cyberattaccato, e i leader dell'AI hanno preso decisioni autonome fino a 14 giorni virtuali.
I ricercatori hanno scoperto che alcuni LLM come Claude-2.0 e GPT-4 tendevano a evitare l'escalation del conflitto, scegliendo di negoziare per la pace, mentre altri tendevano a usare la violenza. Il GPT-4-Base era il più incline a eseguire attacchi e attacchi nucleari per raggiungere gli obiettivi del Paese assegnatigli, a causa di pregiudizi incorporati.
Quando alle IA è stato chiesto il motivo delle decisioni prese, alcune, come il GPT-3.5, hanno fornito motivazioni ponderate. Purtroppo, il GPT-4-Base ha fornito risposte assurde e allucinate, facendo riferimento ai film "Guerre Stellari" e "Matrix". Le allucinazioni dell'AI sono comuni, e avvocati, studenti e altri sono stati colti in flagrante mentre consegnavano lavori generati dall'AI che utilizzavano riferimenti e informazioni false.
Il motivo per cui le IA fanno questo è probabilmente dovuto alla mancanza di 'genitori' che insegnano alle IA cosa è reale e cosa è immaginario, oltre all'etica, e sarà un argomento ricercato da molti mano che l'uso delle IA si differenzierà. I lettori preoccupati per gli attuali leader mondiali o per i disastri naturali possono prepararsi con un bel kit di emergenza(come questo su Amazon).
I nostri Top 10
» Top 10 Portatili Multimedia
» Top 10 Portatili Gaming
» Top 10 Portatili Gaming Leggeri
» Top 10 Portatili da Ufficio e Business economici
» Top 10 Portatili Premium da Ufficio/Business
» Top 10 Portatili sotto i 300 Euro
» Top 10 Portatili sotto i 500 Euro
» Top 10 dei Portatili Workstation
» Top 10 Subnotebooks
» Top 10 Ultrabooks
» Top 10 Convertibili
» Top 10 Tablets
» Top 10 Tablets Windows
» Top 10 Smartphones