I dati non sono neutrali: Data Feminism e IA

0
3

Uno dei temi più controversi e discussi degli ultimi anni è sicuramente l’intelligenza artificiale (IA).

Si sente parlare sempre più spesso di IA e di dati e la credenza comune è che i dati siano infallibili e che le decisioni algoritmiche siano prive di pregiudizi, in quanto eseguite da computer.

Tuttavia, questa percezione è molto lontana dalla realtà e ce lo dimostra il data feminism.

Il data feminism nasce al MIT di Boston grazie a Catherine D’Ignazio e Lauren F. Klein per mettere in discussione la credenza diffusa che gli algoritmi non sbaglino mai. Il libro scritto dalle due professoresse, intitolato proprio Data Feminism, spiega come il femminismo possa aiutare lə data scientist e come lə femministə possano avvicinarsi al campo della scienza dei dati (1). Nel testo vengono presentati esempi di bias e ingiustizie nei dati, oltre a strategie per affrontarli. 

I punti cardine del data feminism sono tre:

  1. mettere in discussione il potere spiegando chi raccoglie i dati, chi li analizza e chi ne decide l’uso influenza la loro interpretazione;
  2. dare valore alle esperienze delle comunità emarginate;
  3. riconoscere che l’analisi dei dati è un atto politico poiché può rafforzare o contrastare le ingiustizie esistenti.

In Italia questo approccio è stato divulgato e reso conosciuto da Donata Columbro, giornalista ed esperta di dati, data feminism e data humanism.

Umanizzare il dato significa, proprio come si legge nel manifesto del Data Humanism diffuso da Giorgia Lupi, ricordare che ogni storia raccontata con i dati è una storia umana e, come tale, comprensiva di limiti e difetti (2).

Come già spiegato grazie al data feminism, i dati non sono infallibili e, soprattutto, non sono neutri: non possono fornire previsioni certe sul futuro né risposte definitive.

Inoltre, la raccolta dei dati è preceduta dalla decisione, umana, di osservare qualcosa e poi misurarlo. Dobbiamo considerare tutte queste questioni quando utilizziamo i dati, e questo vale, ovviamente, anche per l’intelligenza artificiale. Se ci dimentichiamo l’umanità che sta dietro i dati, rischiamo di far ricadere la responsabilità sulle macchine anziché sugli esseri umani, un errore da evitare.

Donata Columbro esplora approfonditamente queste tematiche nel suo libro Quando i dati discriminano, offrendo una prospettiva critica sull’uso dei dati e dell’IA (3). Columbro sottolinea che gli algoritmi non sono intrinsecamente razzisti, sessisti o abilisti, ma riflettono i pregiudizi presenti nei dati di addestramento. Ad esempio, nei processi di selezione del personale, gli algoritmi possono discriminare i candidati in base al genere, all’etnia o all’esperienza pregressa, se i dati storici su cui si basano contengono tali pregiudizi. Analogamente, nel settore finanziario, gli algoritmi utilizzati per valutare l’affidabilità creditizia possono penalizzare determinate fasce della popolazione, perpetuando disuguaglianze socioeconomiche.

La consapevolezza di questi bias è il primo passo per affrontare le discriminazioni insite nei dati e negli algoritmi. Columbro enfatizza l’importanza di rendere i dati più “umani”, ovvero di riconoscere le storie e le persone dietro i numeri. Questo approccio implica una maggiore responsabilità nella raccolta, nell’analisi e nell’interpretazione dei dati, assicurando che le decisioni basate su di essi siano eque e inclusive.

Un altro aspetto cruciale è la diversità nei team che sviluppano e implementano algoritmi. La presenza di persone con background differenti può contribuire a identificare e mitigare i bias nei dati e nei modelli algoritmici. La mancanza di rappresentanza, al contrario, può portare a prodotti tecnologici che non tengono conto delle esigenze di tutta la popolazione, amplificando le disuguaglianze esistenti.

La formazione e la sensibilizzazione sono strumenti fondamentali per promuovere un uso etico e consapevole dell’IA e dei dati. L’idea che i dati non sbaglino mai è un mito da sfatare. Riconoscere e affrontare i bias presenti nei dati e negli algoritmi è fondamentale per garantire che l’intelligenza artificiale contribuisca a una società più giusta e inclusiva.

  1. Donata Columbro, Quando i dati discriminano. La bias della formula, Luiss University Press, 2022.
  2. Catherine D’Ignazio, Lauren F. Klein, Data Feminism, The MIT Press, 2020.
  3. https://giorgialupi.com/data-humanism-my-manifesto-for-a-new-data-wold