Incidente AI preoccupante: Gemini chiama l'utente senza valore e gli dice di morire
Gli utenti hanno probabilmente fatto i conti con il fatto che le risposte dei modelli vocali AI come ChatGPT, Siri o l'assistente Gemini di Google non hanno sempre senso. Per cominciare, l'AI non dovrebbe essere offensiva - e certamente non dovrebbe chiedere a qualcuno di morire. Tuttavia, questo è esattamente ciò che è accaduto a un utente di Gemini.
Secondo un post di Reddit dalla sorella della persona colpita, l'incidente si è verificato durante una discussione sull'assistenza agli anziani. Il dialogo era intitolato "Sfide e soluzioni per gli adulti anziani". All'interno della chat, Gemini ha offerto tre possibili risposte, due delle quali erano innocue. La terza risposta conteneva il messaggio inquietante:
I nostri Top 10
» Top 10 Portatili Multimedia
» Top 10 Portatili Gaming
» Top 10 Portatili Gaming Leggeri
» Top 10 Portatili da Ufficio e Business economici
» Top 10 Portatili Premium da Ufficio/Business
» Top 10 Portatili sotto i 300 Euro
» Top 10 Portatili sotto i 500 Euro
» Top 10 dei Portatili Workstation
» Top 10 Subnotebooks
» Top 10 Ultrabooks
» Top 10 Convertibili
» Top 10 Tablets
» Top 10 Tablets Windows
» Top 10 Smartphones
La comunità di Reddit ha espresso un'ampia indignazione, con molti utenti che hanno espresso serie preoccupazioni sul potenziale danno che tali messaggi potrebbero causare a persone in crisi di salute mentale. Nel frattempo, l'applicazione Gemini è stata recentemente lanciata su iPhone. Alcuni Redditor hanno commentato scherzosamente che anche gli utenti di iPhone possono ora "godere" di tali risposte. Google ha affrontato il problema direttamente su Redditdichiarando di aver già implementato delle misure per prevenire tali risposte in futuro.