Anche dopo la formazione anti-razzismo, i chatbot AI come ChatGPT mostrano ancora pregiudizi razziali
I ricercatori che hanno testato chatbot AI basati su modelli linguistici di grandi dimensioni, come Chat GPT4 di OpenAI, hanno scoperto che possono ancora mostrare pregiudizi razziali, anche dopo essere stati sottoposti a una formazione anti-razzismo. L'ultimo sviluppo fa seguito alla recente iniziativa di Google Gemini AI dopo che il suo nuovo LLM ha corretto in modo eccessivo il razzismogenerando quelle che alcuni hanno definito reinterpretazioni "woke" della storia, dove gli uomini afroamericani, ad esempio, sono stati raffigurati come soldati nazisti della Seconda Guerra Mondiale. A quanto pare, trovare il giusto equilibrio in materia di razza si sta rivelando difficile per i creatori di modelli di LLM.
Nell'ultimo studio, evidenziato da New Scientist, i ricercatori hanno scoperto che decine di diversi modelli LLM testati mostravano ancora pregiudizi razziali quando venivano presentati con testi che utilizzavano dialetti afroamericani. Questo nonostante i modelli testati fossero stati specificamente addestrati per evitare pregiudizi razziali nelle risposte fornite dai chatbot. Tra questi c'è ChatGPT-4 di OpenAI ChatGPT-4 e GPT-3.5 di OpenAI. In un caso, è stato dimostrato che GPT-4 è più propenso a raccomandare una condanna a morte se si parla in inglese con un dialetto afroamericano.
Lo stesso "pregiudizio occulto" era evidente anche nelle raccomandazioni di lavoro che abbinavano gli afroamericani a carriere che avevano meno probabilità di richiedere una laurea o si spingevano fino ad associare le persone di origine afroamericana senza un lavoro, rispetto all'input standard basato sull'inglese americano. I ricercatori hanno anche scoperto che più grande è il modello linguistico, maggiore è la probabilità che presenti questi pregiudizi di fondo. Lo studio solleva preoccupazioni in merito all'uso di tecnologie AI generative per scopi di screening, tra cui la revisione delle domande di lavoro.
I ricercatori hanno concluso che il loro studio solleva dubbi sull'efficacia degli interventi di formazione sulla sicurezza dell'AI basata sull'uomo, che sembrano eliminare il razzismo e i pregiudizi solo ad alto livello, ma faticano a sradicarli dai modelli attuali a un livello inferiore, quando la terminologia specifica dell'identità razziale non viene menzionata durante gli input degli utenti. I ricercatori raccomandano alle aziende che sviluppano LLM di fare attenzione a rilasciare chatbot LLM al pubblico prima che siano stati accuratamente verificati.
Fonte(i)
New Scientist [sub. req.]
I nostri Top 10
» Top 10 Portatili Multimedia
» Top 10 Portatili Gaming
» Top 10 Portatili Gaming Leggeri
» Top 10 Portatili da Ufficio e Business economici
» Top 10 Portatili Premium da Ufficio/Business
» Top 10 Portatili sotto i 300 Euro
» Top 10 Portatili sotto i 500 Euro
» Top 10 dei Portatili Workstation
» Top 10 Subnotebooks
» Top 10 Ultrabooks
» Top 10 Convertibili
» Top 10 Tablets
» Top 10 Tablets Windows
» Top 10 Smartphones