Notebookcheck Logo

OpenAI esprime preoccupazione per gli utenti che sviluppano sentimenti per il suo chatbot

I primi test di OpenAI mostrano alcuni risultati preoccupanti (Fonte: OpenAI)
I primi test di OpenAI mostrano alcuni risultati preoccupanti (Fonte: OpenAI)
Il GPT-4o per ChatGPT, introdotto di recente, è stato lodato per le sue interazioni simili a quelle umane. Tuttavia, questo ha fatto sì che OpenAI si preoccupasse che gli utenti potessero creare legami emotivi con lui. L'azienda afferma che ora monitorerà e regolerà il chatbot per evitare che le persone sviluppino sentimenti nei suoi confronti.

GPT-4o è stato introdotto come modello notevolmente migliorato di ChatGPT. Fin dal suo debutto, le persone hanno lodato ChatGPT-4o per le sue interazioni simili a quelle umane. Sebbene questo sia fantastico, OpenAI ha notato un problema: le persone iniziano a trattare il chatbot come un essere umano e a formare legami emotivi.

OpenAI ha osservato persone che utilizzano un linguaggio che "potrebbe indicare la formazione di legami" L'azienda osserva di aver trovato casi in cui le persone hanno usato un linguaggio che esprimeva "legami condivisi" Questa viene descritta come una cattiva notizia per due motivi principali.

Innanzitutto, quando ChatGPT-4o appare come un essere umano, gli utenti possono ignorare le allucinazioni che provengono dal chatbot. Per contesto, l'allucinazione di AI è fondamentalmente l'output errato o fuorviante generato dal modello. Ciò può accadere a causa di dati di addestramento errati o insufficienti.

In secondo luogo, le interazioni simili a quelle umane con il chatbot potrebbero ridurre le interazioni sociali reali tra gli utenti. OpenAI afferma che le interazioni con i chatbot potrebbero essere potenzialmente utili per "individui solitari", ma potrebbero anche influenzare le relazioni sane. L'azienda osserva inoltre che le persone possono persino iniziare a parlare con gli esseri umani con la percezione che l'altra persona sia un chatbot.

Questo sarebbe negativo, in quanto OpenAI ha progettato GPT-4o per smettere di parlare quando l'utente inizia a parlare con lui. Con tutte queste preoccupazioni, l'azienda afferma che ora monitorerà come gli utenti sviluppano i legami emotivi con ChatGPT-4o. OpenAI afferma inoltre che apporterà delle modifiche al il modello dove necessario.

Acquisti il registratore vocale AI PLAUD Note su Amazon

Fonte(i)

Please share our article, every link counts!
> Recensioni e prove di notebook, tablets e smartphones > News > Newsarchive 2024 08 > OpenAI esprime preoccupazione per gli utenti che sviluppano sentimenti per il suo chatbot
Abid Ahsan Shanto, 2024-08-12 (Update: 2024-08-15)