Spesso si pensa che i modelli di AI siano più neutrali nel prendere determinate decisioni rispetto alle persone. Hai mai pensato che tutti i nostri pregiudizi e bias si riflettono nei dati? Hai mai sentito parlare dei casi Compas e PredPol? In questo talk, scoprirai quanto sono importanti i dati!
Vi siete mai chiesti come i dati possano influenzare i sistemi che creiamo? In un mondo in cui l’interazione con sistemi di intelligenza artificiale è diventata così pervasiva e costante, siamo portati ad assumere che gli algoritmi siano infallibili e sempre autorevoli nelle predizioni generate. Tuttavia, l’efficacia di tale predizioni dipende fortemente dalla qualità (più che dalla quantità!) dei dati utilizzata in fase di addestramento. Sfortunatamente però tale aspetto è spesso trascurato o considerato marginale. Prendiamo ad esempio, il caso Compas (Correctional Offender Management Profiling for Alternative Sanctions), un sistema in grado di prevedere il rischio di recidiva per persone che hanno commesso crimini. Il software assegnava una maggiore tendenza alle persone di colore, a causa delle informazioni utilizzate in fase di addestramento. Un tipico caso, questo di bias algoritmico. Questo esempio ci deve far riflettere. Spesso dimentichiamo che essi sono un prodotto umano, per cui i pregiudizi che abbiamo si riverberano necessariamente sulla loro natura, struttura e funzionamento. Insieme andremo a vedere cosa comporta avere dataset parziali, incompleti, contenenti bias e cosa possiamo fare per rendere i nostri modelli più etici.
Fiorella è sempre stata affascinata dalla tecnologia e dall’informatica, e ha sempre voluto intraprendere una carriera nell’ambito IT. Tutto è cominciato per passione ed ora è diventato un percorso di formazione continuo. Ha preso parte a vari contest come il Google Summer of Code e Google Code In. È co-organizer di Django Girls Italia, community manager PyRoma, WTM Ambassador, PSF fellow member, passa il suo tempo tra eventi, conferenze e networking.