L'Intelligenza Artificiale Rischia di Sviluppare Pregiudizi
Nel 2014, Amazon ha sviluppato un sistema di intelligenza artificiale per selezionare automaticamente i candidati migliori. Doveva essere il futuro del recruiting.
Invece, ha rivelato uno dei problemi più critici dell’AI: il bias.
Scopri attraverso l'approfondimento
• Come funzionava il sistema di selezione automatizzata di Amazon
• Perché ha penalizzato sistematicamente le candidate donne
• Cosa succede quando i dati di addestramento contengono stereotipi
• Perché gli algoritmi non sono mai “neutrali”
• Le lezioni per chi oggi implementa l’AI nelle HR
Il progetto è stato sospeso dopo che il sistema privilegiava candidati maschi e penalizzava termini legati all’identità femminile. Una distorsione generata direttamente dai dati storici su cui era stato addestrato.
Scopri se l’AI può davvero rendere più equo il mondo del lavor o rischia di amplificare i problemi esistenti