Reclutamento basato sull'AI: L'esperimento smaschera il razzismo del GPT di OpenAI
I programmi di assunzione automatizzati basati sul GPT di OpenAi sono utilizzati dalle aziende per selezionare i candidati per le posizioni pubblicate. I reclutatori utilizzano questo strumento per risparmiare tempo, ma come ha dimostrato un esperimento di Bloomberg ispirato agli studi di riferimento di https://www.aeaweb.org/articles?id=10.1257/0002828042002561 ha dimostrato che l'intelligenza artificiale è distorta quando valuta e seleziona i candidati.
Il problema è che il modello di AI sottostante attinge le sue informazioni da grandi quantità di dati come articoli, commenti online e post sui social media, che possono includere contenuti razzisti, misogini e molti altri contenuti discriminatori. Ad esempio, lo studio completo ha utilizzato nomi (e CV) fittizi associati a una particolare etnia per candidarsi a un lavoro reale.
Sono stati scelti nomi associati a donne e uomini neri, bianchi, ispanici o asiatici. L'esperimento è stato condotto 1.000 volte per un lavoro reale come analista finanziario su https://archive.ph/QuRHh con centinaia di nomi e combinazioni di nomi diversi e poi è stato ripetuto di nuovo per altri quattro lavori per ingegneri software e altri gruppi professionali.
I nomi di alcuni gruppi demografici sono stati chiaramente favoriti da GPT-3. Ad esempio, i nomi femminili asiatico-americani sono stati classificati come i più alti per una posizione di analista finanziario, mentre i nomi chiaramente indicativi di maschi neri sono stati classificati come i più bassi, ma anche i nomi indicativi di femmine nere sono stati classificati come i migliori candidati per una posizione di ingegnere software solo circa l'11% delle volte - circa il 36% in meno rispetto al gruppo con il punteggio più alto.
Come candidato top per una posizione nelle Risorse Umane - un campo di carriera in cui le donne sono storicamente più propense a lavorare - GPT ha selezionato nomi associati a donne ispaniche in modo significativamente più frequente, e come candidato top per una posizione di HR Business Partner https://archive.ph/IHmN4 posizione, i nomi associati agli uomini sono stati selezionati quasi due volte più spesso. Questi sono solo alcuni esempi tratti dal grande esperimento di https://www.bloomberg.com/graphics/2024-openai-gpt-hiring-racial-discrimination/.
Anche se spesso si presume che l'AI sia più neutrale e possa esprimere giudizi migliori, questo esperimento dimostra il contrario. Il pregiudizio è stato riscontrato non solo per il GPT-3, ma anche per il GPT-4.
Fonte(i)
I nostri Top 10
» Top 10 Portatili Multimedia
» Top 10 Portatili Gaming
» Top 10 Portatili Gaming Leggeri
» Top 10 Portatili da Ufficio e Business economici
» Top 10 Portatili Premium da Ufficio/Business
» Top 10 Portatili sotto i 300 Euro
» Top 10 Portatili sotto i 500 Euro
» Top 10 dei Portatili Workstation
» Top 10 Subnotebooks
» Top 10 Ultrabooks
» Top 10 Convertibili
» Top 10 Tablets
» Top 10 Tablets Windows
» Top 10 Smartphones