Quando pensiamo all’intelligenza artificiale, il dibattito si divide facilmente. Se da una parte abbiamo chi vede l’AI come un valido alleato, dall’altro sono in tanti i detrattori e gli scettici. Oggi vogliamo analizzare una delle motivazioni della seconda parte. Perché ci sono algoritmi razzisti, sessisti o che penalizzano le classi meno agiate della nostra società?
Qualche definizione preliminare sull’Intelligenza Artificiale
Per rispondere a questa domanda, partiamo dalla definizione di intelligenza artificiale e di machine learning. Nella programmazione tradizionale, i problemi vengono risolti dalla macchina seguendo un insieme sequenziale di ordini impartiti dal programmatore. Con il machine learning il computer non riceve in input delle istruzioni per produrre un output, ma dati dei dati in input e dei dati di output previsti ne analizza connessioni e pattern per risolvere un determinato problema.
Quindi, quello che forniamo al nostro algoritmo sono dei dati, dai quali estrapolerà un concetto. Ma allora perché abbiamo delle intelligenze artificiali dalle dubbie interpretazioni? Un programmatore non ha accesso al processo che la macchina fa per trovare le soluzioni, ma può influenzarla solo tramite i dati su cui si allena. Se i dati sono contaminati, lo sarà anche l’algoritmo.
Perché questo problema è importante?
Negli ultimi anni i campi di applicazione dell’Intelligenza Artificiale sono moltissimi e diversificati. Tra questi però alcuni sono particolarmente delicati. Ad esempio alcune compagnie utilizzano il machine learning per scegliere chi assumere o licenziare. Le banche si basano sui dati per decidere di chi si possa fidare o meno. Oppure alcuni organi di polizia nel mondo utilizzano questi strumenti per decidere chi arrestare e la durata della pena.
Un caso alla Minority Report
Ma i casi di ingiustizie sociali che derivano da questi sistemi sono numerosi e inevitabili. Un esempio può essere quello dato dallo studio di ProPublica. E’ stato preso in considerazione un algoritmo in grado di prevedere il rischio di alcuni individui di commettere crimini più o meno gravi. Uno di questi casi è quello di due persone: un uomo arrestato per varie rapine a mano armata e una ragazza fermata per alcuni atti di teppismo giovanile. L’algoritmo definisce il primo a basso rischio, mentre la seconda ad alto.
Questa previsione però è stata decisamente errata, perché il primo, appena liberato ha continuato a rubare, mentre la seconda no. Dove è il problema di questo algoritmo? Non è stato in grado di fare dei calcoli giusti? No, i suoi ragionamenti erano efficienti, ma si basavano su dati corrotti. Per poter istruire quell’AI, sono stati utilizzate le varie sentenze dei giudici di quella contea dagli anni 70 ai giorni nostri. E analizzando quelle sentenze, il pattern ricorrente era che gli afroamericani erano più inclini a compiere crimini rispetto agli altri.
Questo caso, molto simile ad uno scenario alla Minority Report, ci deve servire a riflettere su come addestriamo i nostri computer, e non possiamo assolutamente stupirci se mettono sotto la lente di ingrandimento e rafforzano le nostre opinioni.
Cosa possiamo fare con l’Intelligenza Artificiale razzista?
Le intelligenze artificiali, almeno con le nostre conoscenze attuali, non sono completamente autonome, si basano su ciò che gli forniamo. Nostro compito è quindi quello di essere consapevoli di ciò, di lavorare allo sviluppo delle nuove tecnologie entrando a far parte del dibattito e informandoci. Perché la tecnologia è uno strumento, uno specchio in cui riflettiamo le nostre complessità. E la tecnologia, proprio perché tanto potente, dovrebbe essere al servizio di tutti.
Leggi anche:
Intelligenza Artificiale a supporto della ricerca sull’Alzheimer
Battuto all’asta un quadro di Obvious, un’ intelligenza artificiale
AlphaGo, un pezzo di storia dell’Intelligenza Artificiale
Ti è piaciuto questo articolo? Dicci cosa ne pensi nei commenti qui sotto o esplora altri contenuti dal nostro menù!
Hai una storia da raccontare o un'opinione da condividere? Mandaci il tuo articolo scrivendoci a [email protected].
Vuoi unirti al nostro team e collaborare con noi? Scopri come candidarti alla pagina dedicata: collabora.