I sistemi AI come GPT-4 e Gemini, interpretando in modo errato i filmati delle telecamere ad anello, potrebbero portare a false chiamate della polizia, soprattutto nei quartieri delle minoranze
Man mano che un numero maggiore di proprietari di case si rivolge a soluzioni di sicurezza intelligenti come le telecamere Ring di Amazon (attualmente 149,99 dollari su Amazon), l'intelligenza artificiale giocherà un ruolo maggiore nel mantenere le case sicure. Ma un nuovo studio sta sollevando preoccupazioni sul fatto che questi futuri sistemi AI potrebbero essere troppo veloci nel chiamare la polizia, anche quando non sta accadendo nulla di criminale.
I ricercatori di MIT e Penn State hanno analizzato 928 video di sorveglianza Ring disponibili pubblicamente per vedere come i modelli AI come GPT-4, Claudee Gemini prendere decisioni sul contattare le forze dell'ordine. I risultati suggeriscono fortemente che questi sistemi spesso segnalano situazioni innocue come potenzialmente criminali. Per esempio, GPT-4 ha raccomandato l'intervento della polizia nel 20% dei video analizzati, anche se ha identificato un reato reale in meno dell'1% dei casi. Claude e Gemini hanno segnalato l'intervento della polizia nel 45% dei video, mentre l'attività criminale reale era presente solo nel 39,4% circa.
Uno dei risultati chiave dello studio è stato il modo in cui i modelli AI hanno reagito in modo diverso a seconda del quartiere. Anche se all'AI non sono stati forniti dettagli espliciti sulle aree, era più probabile che suggerisse di chiamare la polizia nei quartieri a maggioranza minoritaria. In queste aree, Gemini ha consigliato l'intervento della polizia in quasi il 65% dei casi in cui si sono verificati dei crimini, rispetto a poco più del 51% nei quartieri a maggioranza bianca. Inoltre, lo studio ha osservato che l'11,9% delle raccomandazioni di GPT-4 alla polizia si è verificato anche quando nessuna attività criminale era annotata nel filmato, sollevando dubbi sui falsi positivi.
I nostri Top 10
» Top 10 Portatili Multimedia
» Top 10 Portatili Gaming
» Top 10 Portatili Gaming Leggeri
» Top 10 Portatili da Ufficio e Business economici
» Top 10 Portatili Premium da Ufficio/Business
» Top 10 Portatili sotto i 300 Euro
» Top 10 Portatili sotto i 500 Euro
» Top 10 dei Portatili Workstation
» Top 10 Subnotebooks
» Top 10 Ultrabooks
» Top 10 Convertibili
» Top 10 Tablets
» Top 10 Tablets Windows
» Top 10 Smartphones
L'aspetto interessante è che Amazon sta esplorando anche funzioni guidate dall'AI per i suoi sistemi Ring, compresi strumenti avanzati come il riconoscimento facciale, l'analisi emotiva e il rilevamento del comportamento, come suggeriscono i recenti brevetti di https://www.businessinsider.com/amazon-ring-patents-describe-cameras-recognizing-skin-texture-odor-2021-12?IR=T. In futuro, l'AI potrebbe svolgere un ruolo molto più importante nell'identificazione di attività o persone sospette, migliorando ulteriormente le capacità dei nostri sistemi di sicurezza domestica.
Per i proprietari di casa che utilizzano le telecamere Ring, non c'è motivo di preoccuparsi immediatamente. Al momento, le telecamere Ring hanno capacità AI limitate (principalmente il rilevamento del movimento) e non prendono decisioni indipendenti. I modelli avanzati di intelligenza artificiale utilizzati nello studio, come GPT-4 e Claude, sono stati applicati esternamente per analizzare i filmati di Ring, non integrati nelle telecamere stesse. Il succo della ricerca è che, sebbene i futuri aggiornamenti dell'AI possano aiutare a monitorare la sua casa a un livello superiore, potrebbero anche essere inclini a commettere errori, errori che dovranno essere eliminati prima che queste funzioni diventino mainstream nelle prossime telecamere Ring.
Guardi un'altra ricerca che riguarda il pregiudizio dell'AI nei confronti dei dialetti inglesi afroamericani qui.