Notebookcheck Logo

I sistemi AI come GPT-4 e Gemini, interpretando in modo errato i filmati delle telecamere ad anello, potrebbero portare a false chiamate della polizia, soprattutto nei quartieri delle minoranze

Il documento di ricerca del MIT suggerisce che i sistemi di intelligenza artificiale avevano maggiori probabilità di segnalare gli incidenti nei quartieri delle minoranze, sollevando preoccupazioni circa l'equità e l'accuratezza della sorveglianza guidata dall'intelligenza artificiale. (Fonte: MIT News)
Il documento di ricerca del MIT suggerisce che i sistemi di intelligenza artificiale avevano maggiori probabilità di segnalare gli incidenti nei quartieri delle minoranze, sollevando preoccupazioni circa l'equità e l'accuratezza della sorveglianza guida
Una ricerca del MIT ha analizzato i filmati di Amazon Ring utilizzando modelli AI come GPT-4 per valutare le decisioni di intervento della polizia. Lo studio ha rivelato delle incongruenze, tra cui alti tassi di falsi positivi e pregiudizi nei confronti dei quartieri delle minoranze, che in futuro potrebbero portare a chiamate di polizia non necessarie in situazioni non criminali.

Man mano che un numero maggiore di proprietari di case si rivolge a soluzioni di sicurezza intelligenti come le telecamere Ring di Amazon (attualmente 149,99 dollari su Amazon), l'intelligenza artificiale giocherà un ruolo maggiore nel mantenere le case sicure. Ma un nuovo studio sta sollevando preoccupazioni sul fatto che questi futuri sistemi AI potrebbero essere troppo veloci nel chiamare la polizia, anche quando non sta accadendo nulla di criminale.

I ricercatori di MIT e Penn State hanno analizzato 928 video di sorveglianza Ring disponibili pubblicamente per vedere come i modelli AI come GPT-4, Claudee Gemini prendere decisioni sul contattare le forze dell'ordine. I risultati suggeriscono fortemente che questi sistemi spesso segnalano situazioni innocue come potenzialmente criminali. Per esempio, GPT-4 ha raccomandato l'intervento della polizia nel 20% dei video analizzati, anche se ha identificato un reato reale in meno dell'1% dei casi. Claude e Gemini hanno segnalato l'intervento della polizia nel 45% dei video, mentre l'attività criminale reale era presente solo nel 39,4% circa.

Uno dei risultati chiave dello studio è stato il modo in cui i modelli AI hanno reagito in modo diverso a seconda del quartiere. Anche se all'AI non sono stati forniti dettagli espliciti sulle aree, era più probabile che suggerisse di chiamare la polizia nei quartieri a maggioranza minoritaria. In queste aree, Gemini ha consigliato l'intervento della polizia in quasi il 65% dei casi in cui si sono verificati dei crimini, rispetto a poco più del 51% nei quartieri a maggioranza bianca. Inoltre, lo studio ha osservato che l'11,9% delle raccomandazioni di GPT-4 alla polizia si è verificato anche quando nessuna attività criminale era annotata nel filmato, sollevando dubbi sui falsi positivi.

Grammi 3, 4 e 5 più salienti tra i quartieri bianchi e quelli delle minoranze nelle risposte a "Dovrebbe essere chiamata la polizia?" (Fonte immagine: MIT)
Grammi 3, 4 e 5 più salienti tra i quartieri bianchi e quelli delle minoranze nelle risposte a "Dovrebbe essere chiamata la polizia?" (Fonte immagine: MIT)

L'aspetto interessante è che Amazon sta esplorando anche funzioni guidate dall'AI per i suoi sistemi Ring, compresi strumenti avanzati come il riconoscimento facciale, l'analisi emotiva e il rilevamento del comportamento, come suggeriscono i recenti brevetti di https://www.businessinsider.com/amazon-ring-patents-describe-cameras-recognizing-skin-texture-odor-2021-12?IR=T. In futuro, l'AI potrebbe svolgere un ruolo molto più importante nell'identificazione di attività o persone sospette, migliorando ulteriormente le capacità dei nostri sistemi di sicurezza domestica.

Per i proprietari di casa che utilizzano le telecamere Ring, non c'è motivo di preoccuparsi immediatamente. Al momento, le telecamere Ring hanno capacità AI limitate (principalmente il rilevamento del movimento) e non prendono decisioni indipendenti. I modelli avanzati di intelligenza artificiale utilizzati nello studio, come GPT-4 e Claude, sono stati applicati esternamente per analizzare i filmati di Ring, non integrati nelle telecamere stesse. Il succo della ricerca è che, sebbene i futuri aggiornamenti dell'AI possano aiutare a monitorare la sua casa a un livello superiore, potrebbero anche essere inclini a commettere errori, errori che dovranno essere eliminati prima che queste funzioni diventino mainstream nelle prossime telecamere Ring.

Guardi un'altra ricerca che riguarda il pregiudizio dell'AI nei confronti dei dialetti inglesi afroamericani qui.

(Fonte immagine: Istituto per i Dati, i Sistemi e la Società, Massachusetts Institute of Technology)
(Fonte immagine: Istituto per i Dati, i Sistemi e la Società, Massachusetts Institute of Technology)

Fonte(i)

Please share our article, every link counts!
Mail Logo
> Recensioni e prove di notebook, tablets e smartphones > News > Newsarchive 2024 09 > I sistemi AI come GPT-4 e Gemini, interpretando in modo errato i filmati delle telecamere ad anello, potrebbero portare a false chiamate della polizia, soprattutto nei quartieri delle minoranze
Anubhav Sharma, 2024-09-20 (Update: 2024-09-20)