Come riconoscere i bias dell’IA e prevenirli nei processi aziendali

Negli Stati Uniti, diversi studi legali stanno indagando sull’uso dell’intelligenza artificiale (IA) nei colloqui aziendali e nello screening delle persone candidate agli annunci di lavoro. Nel mirino ci sono software o piattaforme che analizzano video, voce e linguaggio per attribuire punteggi di “idoneità” a chi invia il proprio curriculum.

Secondo le inchieste pubblicate da ClassAction.org, alcuni di questi strumenti avrebbero fornito alle imprese report basati su dati biometrici, analisi facciale o linguistica, senza rispettare il Fair Credit Reporting Act, la legge che negli Stati Uniti tutela la correttezza e la trasparenza nell’uso dei dati personali.

In alcuni casi, gli algoritmi di valutazione automatica hanno prodotto punteggi che riflettono o amplificano pregiudizi legati al genere, all’età o all’origine etnica delle persone.

Un episodio in particolare ha fatto discutere: quello di una dipendente di Intuit, azienda del settore fintech, che ha denunciato l’uso di un sistema di video-intervista basato su IA per la promozione interna. Sorda e appartenente a una minoranza etnica, la dipendente aveva chiesto sottotitoli generati da esseri umani per comprendere le domande dell’algoritmo. La richiesta è stata respinta e il sistema l’ha poi penalizzata per la sua “capacità di ascolto”.

Un paradosso che mostra come la tecnologia possa discriminare proprio chi avrebbe più bisogno di essere messa nelle condizioni di partecipare.

Questi casi, pur legati al contesto giuridico statunitense, offrono un messaggio chiaro per le aziende di tutto il mondo: usare l’intelligenza artificiale senza una supervisione umana adeguata è un rischio concreto, non solo per la reputazione, ma anche per la conformità normativa. 

Contesto normativo e scelte umane

L’AI Act europeo, entrato in vigore ad agosto 2024, classifica già l’uso dell’IA nel reclutamento come “ad alto rischio”, imponendo obblighi di trasparenza, tracciabilità e controllo umano. La legge italiana 23 settembre 2025, n. 132, in vigore dal 10 ottobre 2025, recepisce e integra questo quadro: è la prima disciplina organica nazionale sull’IA e introduce principi, deleghe e strumenti (come un Osservatorio sull’adozione dei sistemi di IA nel mondo del lavoro) per vigilare su rischi, impatti e tutele.

Il punto, però, non è solo normativo.
Dietro ogni algoritmo ci sono scelte umane: quali dati raccogliere, come interpretarli, quali criteri considerare rilevanti, i parametri che associamo al talento o all’affidabilità. Gli episodi statunitensi e la nuova regolamentazione europea ci ricordano che i bias degli strumenti alimentati tramite algoritmi di “intelligenza artificiale” non sono un problema tecnico, ma culturale e organizzativo. 

Come ricorda Donata Columbro nel suo libro Quando i dati discriminano (Il Margine, 2024), i dati non sono entità neutre: nascono dentro condizioni storiche, culturali e geografiche precise, portando con sé il punto di vista – corpi, esperienze e appartenenze – di chi li raccoglie e li interpreta. Ed è da questa parzialità che derivano molte delle distorsioni che l’IA finisce per riprodurre.

Gli algoritmi apprendono dalle nostre discriminazioni

Riconoscere i bias significa allora tornare al punto di partenza: chiedersi quali visioni del mondo stiamo insegnando ai nostri strumenti tecnologici. 

Quando si parla di intelligenza artificiale, infatti, l’errore più comune è immaginarla come una tecnologia neutrale. In realtà, ogni sistema di IA “impara” dai dati che riceve, e quei dati sono il riflesso della società che li ha prodotti. Curriculum, immagini, conversazioni, decisioni: tutto porta con sé impronte di genere, background etnico, linguistico, socio-economico, età o condizioni di disabilità.

Se il passato è segnato da disuguaglianze, l’algoritmo le apprende e le ripete. I bias algoritmici non sono tanto frutto di un’intenzione esplicita di discriminare ma di un’assenza di rappresentazione

Se nei dataset di addestramento ci sono più volti maschili che femminili, o se le esperienze di donne, persone migranti o con disabilità sono sottorappresentate, il sistema tende a considerarle eccezioni, non regole. Nel linguaggio della tecnologia questo è un problema di accuratezza; nella vita reale si chiama esclusione.

Negli ultimi anni, due ricercatrici statunitensi hanno dato grande contributo nella divulgazione di questa consapevolezza: Timnit Gebru e Joy Buolamwini.

Buolamwini, fondatrice dell’Algorithmic Justice League, ha mostrato come molti sistemi di riconoscimento facciale non riescano a leggere in modo accurato i volti femminili e delle persone con la pelle più scura. Il suo lavoro non si limita a evidenziare errori tecnici, ma denuncia un problema più profondo, chiamato “l’ombra algoritmica”: l’insieme di conseguenze sociali, spesso invisibili, che emergono quando un sistema automatizzato non riconosce, o mal interpreta, chi non appartiene al gruppo dominante.

Gebru ha fondato invece il Distributed AI Research Institute (DAIR), un progetto politico e comunitario che vuole ripensare come e da chi viene costruita l’intelligenza artificiale. I progetti del DAIR – dalla documentazione dei danni generati da sistemi di riconoscimento facciale, alla ricerca sui dataset utilizzati per addestrare i modelli linguistici, fino agli studi sulle pratiche di sorveglianza digitale – partono da un’idea fondamentale: non può esistere un’IA giusta senza giustizia sociale. 

Questi progetti ci ricordano che per prevenire i bias dell’IA non basta ottimizzare tecnicamente i modelli, ma è necessario ripensare l’intero ecosistema che li genera: persone, risorse, valori e istituzioni.

Per le aziende è una consapevolezza cruciale. Significa riconoscere che dietro l’efficienza promessa dai sistemi di IA c’è sempre una responsabilità collettiva: quella di chi progetta, ma anche di chi sceglie di adottare la tecnologia nei processi organizzativi. Prestare attenzione ai bias e alla loro mitigazione diventa allora una scelta di governance e di leadership.

Bias IA nei processi aziendali: dove si nascondono

Questa dinamica diventa particolarmente evidente nei processi aziendali, dove i dati sono spesso percepiti come neutri per definizione. Non servono algoritmi complessi per capire che invece i bias possono insinuarsi ovunque si prendano decisioni sulle persone. Molti strumenti usati oggi nelle aziende per gestire il lavoro quotidiano – dal recruiting alla valutazione delle performance, fino ai sistemi di supporto alle decisioni – si basano su modelli predittivi che apprendono dai dati storici.

E i dati storici, come sappiamo, raccontano il passato: chi ha ricevuto più spesso promozioni, chi ha lasciato l’azienda, chi ha ottenuto feedback migliori. Se quelle scelte riflettono squilibri di genere, età, provenienza o altre caratteristiche identitarie, l’IA tenderà a consolidarli, trasformandoli in regole implicite di efficienza. L’esclusione diventa così un automatismo elegante, nascosto nel linguaggio della statistica.

I bias possono agire anche in modo più sottile.
Un sistema di analisi del sentiment aziendale, per esempio, può attribuire un tono “negativo” a espressioni culturali diverse da quelle del gruppo dominante.
Un assistente virtuale interno può riprodurre stereotipi linguistici legati al genere.
Un modello di valutazione delle competenze può premiare tratti comportamentali – come la competitività o la disponibilità continua – che non corrispondono ai valori dichiarati dell’organizzazione.

Più che di “errori” dell’IA, si tratta di specchi culturali: la tecnologia restituisce esattamente ciò che trova, amplificando le disuguaglianze strutturali che attraversano i contesti di lavoro. Ecco perché riconoscere i bias non è un compito da tecnologi, ma una responsabilità condivisa tra HR, leadership e chiunque progetti esperienze professionali.

Riconoscere i bias dell’IA: strumenti di consapevolezza

Riconoscere i bias, quindi, è un esercizio di consapevolezza da allenare per imparare a vedere ciò che di solito resta invisibile. Perché i pregiudizi più difficili da scovare non sono quelli intenzionali, ma quelli che si nascondono nei linguaggi, nelle abitudini e nei modelli di successo che diamo per scontati.

Le aziende che oggi scelgono di integrare l’IA nei propri processi devono affrontare una sfida duplice: da un lato garantire efficienza e competitività, dall’altro tutelare i principi di equità e inclusione. È un equilibrio delicato, che richiede strumenti di governance nonché valori chiari e condivisi. Ecco alcune leve che aiutano a equilibrare l’uso dell’IA nei processi aziendali:

1. Definire principi etici e linee guida interne

La prima leva è dichiarare i propri valori: rendere espliciti i criteri con cui si adottano e si valutano le tecnologie di IA. Molte organizzazioni stanno introducendo linee guida o policy interne che fissano principi di equità, non discriminazione, trasparenza verso persone candidate e dipendenti, allineate al quadro europeo e alla nuova legge 132/2025. 

Quest’ultima, in particolare, non è una norma “tecnica”, ma un testo che tocca la responsabilità degli enti, l’aggiornamento dei modelli organizzativi e la necessità di dimostrare che l’adozione dell’IA avviene nel rispetto dei diritti fondamentali. Stabilire una cornice valoriale chiara evita che l’IA entri “di lato” nei processi, senza che nessuno se ne assuma davvero la responsabilità.

2. Creare team multidisciplinari e diversificati

I bias prosperano nei gruppi omogenei. Per questo, l’adozione di sistemi di IA in ambito HR non può essere delegata solo all’IT o al fornitore del software: servono team multidisciplinari e diversificati, in cui HR, DEI, legale, data scientist, sicurezza sul lavoro e comunicazione lavorino insieme.

Questa varietà di sguardi è fondamentale per:

  • leggere i dati da più prospettive
  • interrogare le metriche alla luce dei valori aziendali
  • anticipare rischi di esclusione o discriminazione
  • confrontarsi con rappresentanze sindacali e organismi interni, in linea con le richieste di informazione e confronto previste a livello europeo

3. Garantire un controllo umano significativo

Il principio di human oversight (controllo umano) è uno dei cardini dell’AI Act: i sistemi di IA ad alto rischio devono essere progettati e usati in modo da garantire una supervisione umana effettiva, capace di prevenire o ridurre i rischi per i diritti delle persone.

Per HR e leadership questo si traduce in scelte molto concrete:

  • l’IA non può essere l’unico soggetto a decidere assunzioni, esclusioni o promozioni
  • chi supervisiona il sistema deve poter comprendere limiti e logiche di funzionamento, sospenderlo, ignorarne l’output o chiederne la revisione
  • le persone, siano esse candidate o già dipendenti, devono essere informate in modo chiaro quando una decisione che le riguarda è supportata da un sistema di IA, con indicazioni sul funzionamento di base e sui diritti di contestazione

La legge italiana, in coerenza con il quadro europeo, insiste sul diritto all’informazione della persona interessata e sulla vigilanza rispetto ai rischi sociali e ai diritti fondamentali, anche in ambito lavorativo. In pratica: nessuna scorciatoia. Le decisioni sulle persone devono restare tracciabili, spiegabili e discutibili.

4. Formare alla consapevolezza e alla cultura dei dati

Un altro pilastro dell’AI Act è l’AI literacy: fornitori e utilizzatori di sistemi di IA devono garantire un livello adeguato di competenza tra le persone che li gestiscono e li usano. 

Questo, nella pratica, significa:

  • saper leggere criticamente i report generati dai tool di screening e people analytics
  • conoscere i rischi di bias legati a dati incompleti o poco rappresentativi
  • capire quali domande fare ai fornitori, e come documentare test, correzioni e interventi
  • includere nei percorsi di leadership formazione su bias cognitivi, etica dei dati, impatti dell’IA su equità, sicurezza e benessere

5. Misurare l’impatto sociale e reputazionale

Infine, ogni progetto di IA dovrebbe essere valutato anche per il suo impatto sulle persone e sull’organizzazione, non solo sui costi o sulla produttività.

L’AI Act parla di gestione del rischio lungo tutto il ciclo di vita del sistema, con monitoraggio e riesame continuo; la legge italiana introduce strumenti e reati specifici (come quello contro la diffusione illecita di contenuti generati con IA, i deepfake) che mostrano quanto il legislatore consideri seri gli effetti sociali della tecnologia.

Per le aziende, questo può tradursi in:

  • indicatori interni di equità e rappresentatività nei processi supportati da IA
  • canali per raccogliere segnalazioni e feedback da persone candidate e già dipendenti
  • revisioni periodiche dei sistemi, anche alla luce delle raccomandazioni dell’Osservatorio e degli sviluppi regolatori

Prevenire i bias non è un obiettivo che si spunta una volta per tutte, ma un processo continuo di ascolto critico e revisione. Ne parlavamo già qualche mese fa durante il lancio di D-Verso. Linee guida per un Metaverso inclusivo e D-Verso Podcast, il progetto di Valore D che, in collaborazione con Accenture e il Politecnico di Milano, accompagna le organizzazioni nella creazione di ambienti virtuali inclusivi, accessibili e responsabili. Una conversazione che è solo agli inizi ma che parte dalla ferma consapevolezza che ogni nuova tecnologia porta con sé opportunità e zone d’ombra: riconoscerle non è un segno di fragilità, è parte del lavoro. 

Articoli correlati