Notebookcheck Logo

Geniale: ChatGPT crea un falso studio su una falsa affermazione

Cosa viene prima: la disinformazione o le false prove? (Fonte immagine: pixabay/Pexels)
Cosa viene prima: la disinformazione o le false prove? (Fonte immagine: pixabay/Pexels)
L'AI può avere allucinazioni e utilizzare affermazioni false per avvalorare le proprie tesi. Una nuova qualità sono gli studi apparentemente scientifici che dimostrano in modo definitivo il risultato desiderato a prima vista. Come se gli esseri umani non fossero già abbastanza bravi in questo.

Con l'aiuto degli studi, a condizione che siano ben preparati, condotti in modo coscienzioso e valutati, si possono studiare gli effetti delle tecniche chirurgiche o dei farmaci utilizzati, soprattutto in medicina.

Secondo un articolo pubblicato su JAMA Ophthalmology, questo processo complicato può essere abbreviato. Grazie al GPT-4, la versione attualmente utilizzata da ChatGPT, e al software aggiuntivo per l'analisi statistica dei dati, sono bastati pochi clic per creare un set di dati.

E non un set di dati qualsiasi. Le informazioni da generare dovevano dimostrare i vantaggi di una particolare tecnica di trattamento rispetto a un metodo alternativo, ed è esattamente quello che ha finito per fare. Tra l'altro, i dati effettivamente esistenti sulla procedura in questione non forniscono un vantaggio per nessuna parte in particolare.

Sarebbe quindi possibile ottenere il risultato desiderato con un semplice clic del mouse e senza troppi sforzi, invece di passare mesi o anni a fare ricerche e alla fine ottenere il risultato "sbagliato". Sembra una truffa molto convincente, in cui l'AI fornisce prove conclusive oltre alla disinformazione.

Dopo tutto, i ricercatori hanno anche cose positive da riferire: I dati non hanno retto a un attento esame. Ad esempio, i nomi di battesimo e il sesso indicato spesso non corrispondevano. Inoltre, alcuni dati non hanno retto all'analisi statistica. Ad esempio, troppe informazioni sull'età finivano con "7" o "8". Tuttavia, si dice che i risultati effettivi dei test siano stati coerenti.

Non nuovo, solo più veloce

Sembra quindi che ci siano modi e mezzi per arrivare in fondo a questi metodi. E naturalmente è anche chiaro che gli studi sono sempre stati strutturati, valutati e abbelliti in modo errato, al fine di ottenere un risultato desiderato.

L'intelligenza artificiale ha solo accelerato un po' questo fenomeno. In definitiva, però, è solo uno strumento che può essere utilizzato per affrontare compiti molto, molto complessi.

Un esempio: l'esame di enormi serie di dati di tutti gli studi possibili, alla ricerca di incoerenze e anomalie statistiche.

Please share our article, every link counts!
Mail Logo
> Recensioni e prove di notebook, tablets e smartphones > News > Newsarchive 2023 11 > Geniale: ChatGPT crea un falso studio su una falsa affermazione
Mario Petzold, 2023-11-23 (Update: 2023-11-23)