Il nostro Ateneo ha lanciato lo scorso anno, insieme all’Università degli Studi di Milano e all'Università di Pavia, un corso di laurea magistrale in Human-Centered Artificial Intelligence. Un percorso formativo che si concentra sulle applicazioni dell’intelligenza artificiale utili nelle organizzazioni e nei servizi diretti alla persona, con un dei tre curricula dedicato a "Diritto e AI". Il diritto non può mai restare indietro rispetto ai processi di innovazione, alle loro applicazioni e ricadute. In questa intervista concentriamo il nostro focus su un aspetto particolare: quello della ricerca e selezione del personale; il dottor Filippo Bordoni (Dipartimento di Giurisprudenza) ci aiuterà a capire in che direzione si muove il cambiamento.
La ricerca è stata sviluppata nell'ambito del progetto PRIN Intelligenza artificiale e scienze giuridiche.
Dottor Bordoni, nel suo articolo spiega come il ricorso all’intelligenza artificiale sia nato in risposta ai cambiamenti intervenuti nel mercato del lavoro. Ci vuole spiegare la situazione e quali sono i rischi più significativi?
È indubbio che il contesto del mercato del lavoro abbia indotto l’esigenza da parte delle aziende di aumentare l’efficienza del processo di selezione, quello che è emerso dalla ricerca empirica che abbiamo condotto è che l’esigenza di chi usa l’AI al momento non è tanto aumentare la qualità della selezione (tranne per poche figure apicali), quanto di velocizzare la lettura di migliaia di curriculum: un’attività piuttosto ripetitiva che può essere svolta anche da un’intelligenza artificiale.
I rischi possono essere di diversa natura: si va dall’assimilazione da parte della macchina di bias umani, all’acquisizione di una grande mole di dati personali, che si evincono dai software utilizzati per i colloqui, dai test somministrati ai candidati, dal social recruiting (che attinge ad informazioni dai profili social dei candidati). In generale gli algoritmi tendono ad ampliare le asimmetrie informative tra chi li utilizza e chi li subisce. Per esempio, abbiamo conoscenza di società di selezione di personale che filmano i candidati nel corso di colloqui e analizzano con sistemi di intelligenza artificiale le emozioni espresse dal candidato: nell’incertezza dell’attuale quadro regolativo, vi sono motivi per dubitare che questo utilizzo della macchina tuteli adeguatamente i diritti dei candidati, tanto che la proposta di Regolamento sull’intelligenza artificiale attualmente in discussione in sede europea dovrebbe vietare questo tipo di tecniche. Diverso, e meno problematico, è invece il caso in cui la macchina applichi semplicemente un algoritmo di sbobinatura, produca un testo e poi lo analizzi.
Davvero i datori di lavoro saranno disponibili a concedere la trasparenza sui criteri di selezione quando con il metodo tradizionale non sono tenuti a farlo?
Ci sono buone ragioni per ritenere che non ci sarà una propensione a divulgare queste informazioni in futuro. Anche chi viene scartato poi raramente ha interesse a ricorrere contro la decisione. Ci aspettiamo che più che il singolo candidato possa avere interesse ad un livello minimo di trasparenza il sindacato. Uno degli obiettivi della nostra ricerca è capire se esistono dei margini, con la legislazione vigente e con il regolamento sull’intelligenza artificiale dell’Unione Europea, per permettere a determinati soggetti, per esempio i rappresentanti sindacali, di ottenere almeno per sommi capi i criteri con cui viene operata selezione; criteri generali, senza entrare nello specifico.
C'è un'intelligenza artificiale che ha informato di sé la logica del web, quella dei motori di ricerca. Oggi molti siti web sono ottimizzati per essere recuperati dai motori di ricerca e posti nelle prime posizioni della pagina dei risultati. Non ci sarà a lungo andare una risposta in termini di standardizzazione anche nelle modalità di presentazione delle candidature?
È proprio quello che stiamo cercando di verificare nella nostra ricerca ed è un aspetto più profondo del singolo episodio di discriminazione: si tratta del rischio di ridurre le possibilità per determinate categorie socioeconomiche, o per determinati tipi di studio, di accedere a delle posizioni di lavoro. Quando l’intelligenza artificiale standardizza la domanda di lavoro, e lo può fare a volte anche in maniera non voluta da parte del decisore aziendale, con meccanismi che non sono sempre prevedibili né trasparenti, questo ha inevitabilmente un effetto su chi cerca lavoro. Se, per ipotesi, io ho partecipato ad un corso per presentare meglio il mio curriculum, ho delle possibilità in più rispetto ad un altro candidato che ha esattamente le mie caratteristiche, ma non ha a disposizione l’informazione necessaria a fronteggiare l’algoritmo. Esistono già dei corsi che insegnano come ottimizzare il curriculum.
Come valuta l’AI act che l’Unione Europea sta discutendo quest’anno?
È un testo con molti lati positivi, ma non fornisce tutte le risposte, in parte semplicemente perché non è lì che dobbiamo cercarle. Si tratta di uno strumento normativo il cui obiettivo è prima di tutto aumentare l’efficienza del mercato e solo secondariamente proteggere certi diritti fondamentali, tra cui non rientrano specificamente quelli dei lavoratori: è l’approccio opposto a quello del GDPR, che punta prima di tutto ad assicurare l’effettività del diritto alla protezione dei dati personali. Quindi l’impostazione è profondamente diversa, mira alla regolamentazione di mercato. Sicuramente impone degli obblighi di trasparenza, vieta alcuni usi dell’intelligenza artificiale che ad oggi sono già utilizzati per la selezione del personale, ma l’impatto probabilmente non sarà risolutivo per gli scopi che ci interessano.
E in Italia qual è la normativa?
L’Italia in questo caso è abbastanza avanti perché ha introdotto con il Decreto trasparenza del 2022 degli obblighi tra cui quello, per chi utilizza in azienda strumenti di intelligenza artificiale, di comunicare le caratteristiche e le finalità d’uso. Un campo di sperimentazione ad esempio è il lavoro dei riders che hanno valutazioni costanti su come lavorano, un settore molto specifico, ma che riguarda migliaia di lavoratori. Si può discutere sul fatto che questi obblighi si applichino anche alla selezione del personale, a mio parere si, se l’intento è quello di rendere trasparente la logica degli strumenti che vengono utilizzati. L’attenzione sull’IA in questo momento è alta, ma in realtà alcuni strumenti legislativi già li avevamo, per esempio il Codice delle pari opportunità (d.lgs. 198 del 2006). Una sua modifica nel 2021 integra una parte del testo in cui si parlava delle discriminazioni per sesso, specificando che queste regole vanno considerate anche nella fase di selezione. Non ultimo lo Statuto dei lavoratori, con il suo articolo 8, regola la selezione del personale e l’impossibilità di domandare ad un candidato informazioni che non hanno direttamente a che fare con l’attitudine professionale. Gli strumenti normativi che abbiamo sono piuttosto forti, vanno raccolti in una strategia unitaria, forse più che tante regole servirebbe più precisione e applicazione ai casi concreti.