Intelligenza artificiale: verso nuove forme di discriminazione?

L’intelligenza artificiale entra nel mondo del lavoro

In attesa di un intervento legislativo, lo strumento dell’intelligenza artificiale ha già cominciato a farsi largo nel mondo del lavoro. Dallo smistamento interno delle mail allo screening dei curricula: sono sempre di più le aziende e gli enti pubblici che ricorrono alla nuova tecnologia per automatizzare alcuni processi. 

Il termine “intelligenza artificiale” comincia ad essere usato anche all’interno di provvedimenti legislativi. Ha fatto la sua comparsa, da ultimo, nel Decreto Coesione (D.L. 60/2024). Nell’ambito dei lavori di avvio della piattaforma SIIL, sarà previsto l’utilizzo di strumenti di intelligenza artificiale per favorire al meglio l’incontro tra domanda e offerta di lavoro.

Anche l’INPS e l’Agenzia delle Entrate hanno cominciato da tempo ad utilizzare la nuova tecnologia e sono sempre di più le aziende che stanno introducendo questo strumento per visionare i curricula o per “misurare” le performance dei propri lavoratori.

Una storia che parte da lontano

Sebbene l’intelligenza artificiale sia entrata nel linguaggio quotidiano solo da poco tempo, l’idea di delegare alle macchine compiti tipici dell’uomo è antica. Le origini dell’idea si perdono nel tempo e l’innovazione tecnologica è andata di pari passo con lo sviluppo delle società.

Pensatori visionari e autori di libri di fantascienza, già in tempi non sospetti, avevano predetto un futuro fatto di macchine intelligenti da sostituire all’uomo e di scenari più o meno apocalittici.

Quelle che erano solo idee di fantasia oggi sono diventate concretezza. Gli scenari appaiono meno apocalittici e il progresso tecnologico più governabile.

Gli algoritmi

Possibilità e criticità dell’intelligenza artificiale sono al centro di un nuovo dibattito sul futuro del lavoro e, quindi, della società in cui viviamo. Gli algoritmi, su cui si basa il funzionamento degli strumenti di IA, sono degli osservati speciali. Ciò che spaventa è, in particolare, la loro capacità di influenzare le persone e le loro decisioni.

Gli algoritmi funzionano utilizzando grandi quantità di dati. Cosa accadrebbe se i dati di partenza siano falsati da pregiudizi storici o sociali? Probabilmente l’algoritmo replicherebbe il pregiudizio selezionandolo come giusto nella comparazione dei dati.

Questo scenario è particolarmente attenzionato per le nuove forme di discriminazione che potrebbe generare. Si pensi ad un’azienda che utilizza strumenti di IA per selezione i curricula più appetibili. Sulla base di come è stato costruito lo strumento, il sistema tecnologico potrebbe scartare alcuni curricula solo perché non in linea con l’impostazione algoritmica e con i dati storici e statistici al quale lo strumento attinge. Ad esempio, per posizioni apicali, potrebbero venire scartati i CV delle donne in quanto storicamente la leadership è stata prerogativa maschile.

Non solo questione di genere ma anche di orientamento sessuale, di appartenenza razziale o banalmente di età anagrafica. Tutto ciò che non è in linea con l’impostazione algoritmica di partenza potrebbe venire scartato automaticamente.

Verso nuove forme di discriminazione?

Dietro una macchina o uno strumento tecnologico c’è sempre una mente umana. Programmatori e sviluppatori potrebbero, anche involontariamente, inserire i loro pregiudizi nella formulazione dell’algoritmo. Il rischio di nuove forme di discriminazione appare, dunque, essere reale.

Si è notato, ad esempio, che alcune applicazioni di IA tendono ad ommettere, nella risposta a determinati quesiti, aspetti critici della nostra realtà.

Le decisioni automatizzate sono uno degli aspetti più affascinanti dell’intelligenza artificiale ma rappresentano, al contempo, uno dei profili più forieri di criticità.

Storture cognitive, perpetuazione all’infinito di pregiudizi sociali e travisamenti della realtà sono i nuovi rischi ai quali si dovrà prestare attenzione. L’input iniziale, se basato su convinzioni radicate nella società, potrebbe portare ad un output finale iniquo ove il profilo della responsabilità (la macchina o il programmatore?) potrebbe essere di non facile individuazione.

L’intelligenza artificiale è un mondo di possibilità. Non bisogna, però, dimenticare che il progresso deve essere sempre equo, democratico e il più possibile giusto.

L’articolo Intelligenza artificiale: verso nuove forme di discriminazione? sembra essere il primo su 7Grammilavoro.

Lascia un commento

Torna in alto