Dopo anni di discussioni, mediazioni e compromessi, il Parlamento europeo e il Consiglio dell’Unione europea hanno approvato nel 2024 l’AI Act, la prima legge al mondo che tenta di disciplinare in modo organico l’Intelligenza artificiale. Un provvedimento destinato a fare scuola, che sarà uno dei temi della conferenza internazionale “AI & Data Security: An Euro-American Dialogue for a New Era of Regulation”, in programma l’8 e 9 maggio all’Università di Milano-Bicocca. In vista dell’evento, abbiamo intervistato Luca Bertuzzi, giornalista presso l’agenzia di stampa internazionale MLex ed esperto di politiche digitali dell’Unione Europea. E gli abbiamo chiesto come sia nato un sistema normativo che vuole assicurarsi che in Europa i sistemi di Intelligenza artificiale siano affidabili, trasparenti e responsabili, e che rispettino i principi etici e i diritti fondamentali. E qual è il suo futuro?

«L’AI Act è una legge orizzontale, che non regola un settore specifico, ma si applica a tutti gli utilizzi dell’Intelligenza artificiale», spiega Bertuzzi. «La sua architettura si basa su un approccio “basato sul rischio”: si identificano diverse categorie di rischio a seconda dell’impatto che un sistema di IA può avere sui diritti fondamentali, la sicurezza e la salute delle persone. Non hanno particolari obblighi normativi le applicazioni IA che hanno un rischio minimo (per fare un esempio, i filtri di un sistema di email per determinare se un contenuto è spam o meno). Diverso è il discorso quando la categoria è quella definita “ad alto rischio” che coinvolge settori specifici come quello dell’ammissione all’istruzione, quelli delle applicazioni giudiziarie e di polizia, quello della selezione e del reclutamento del personale».
Saranno invece vietati sistemi a “rischio inaccettabile” che contraddicono i valori e i principi europei come il rispetto della dignità umana, della democrazia e dello stato di diritto. Sono proibiti cioè i sistemi che consentono il social scoring da parte delle autorità pubbliche, come quello che il governo cinese starebbe mettendo a punto utilizzando algoritmi di IA per classificare imprese e cittadini in base ai loro comportamenti. Vietato è l’uso di sistemi di IA per manipolare persone con disabilità, anziani e minori o, ancora, per categorizzare le persone per esempio per il loro orientamento sessuale. «Non solo. Durante il negoziato, c'è stata un'evoluzione nella tecnologia, in particolare col rilascio di ChatGPT, che ha messo il regolatore nella condizione di regolamentare anche altri aspetti dell'Intelligenza artificiale, ovvero i large language models che sottendono a tecnologie come ChatGPT e che sono basati su una quantità enorme di dati. Si è deciso dunque di introdurre degli obblighi anche per le aziende che forniscono questi modelli che in generale sono fra le aziende più importanti del settore tecnologico». Il quadro normativo regola anche sistemi di IA che hanno un rischio limitato ma devono soddisfare specifici obblighi di trasparenza, come nel caso dei chatbot, software progettato per simulare una conversazione con un essere umano: l’utente che vi interagisce ha il diritto di sapere sempre che sta comunicando con un bot e non con un umano.
Il percorso per arrivare all’approvazione dell’AI Act non è stato semplice. «Ci sono stati almeno due aspetti su cui ci sono state divergenze anche importanti. Il primo è quello relativo all'uso dell'Intelligenza artificiale nell'ambito delle investigazioni giudiziarie e dell'applicazione della legge: qui c’è stata una forte spinta, da parte della Francia e da Stati come Italia e Spagna che hanno problemi di criminalità organizzata e che volevano dare più strumenti alle forze di polizia giudiziaria per intervenire. Dall'altro lato, il Parlamento europeo, che rappresentava i cittadini ed esprimeva posizioni più sensibili alla difesa delle libertà civili e alla tutela dei diritti, si è imposta contro l’uso di sistemi, come il riconoscimento facciale, che avrebbero introdotto il rischio concreto di una situazione di sorveglianza generalizzata: secondo il regolamento, dunque, alcuni utilizzi della sorveglianza biometrica sono ammessi in casi eccezionali, ma con limiti molto precisi e garanzie di controllo giudiziario», spiega Bertuzzi. «L’altro terreno su cui c’è stata divergenza è stato quello dei large language model che sottendono sistemi all’avanguardia come ChatGPT. Alcune startup europee si stavano lanciando su questo mercato dei modelli per competere con le aziende americane e hanno spinto i rispettivi Paesi a evitare di regolamentare in modo stringente questo aspetto dell'Intelligenza artificiale per non trovarsi in una condizione di difficoltà nella concorrenza con le aziende americane. Su insistenza del Parlamento si è deciso comunque di introdurre regole di trasparenza e gestione del rischio per la tutela dei cittadini europei».
E sul tema delle differenze tra Europa e Stati Uniti? «Molto difficile in questo momento capire quale sia la posizione degli Stati Uniti. Chiaramente l'Unione Europea è più orientata alla protezione dei valori europei e dei dei diritti fondamentali di cittadini e consumatori. Negli Stati Uniti, più incentrati sulla competitività e su logiche di mercato, non c'è un approccio di questo tipo: non c’è una regolamentazione vincolante come l’AI Act europeo, anche se alcuni stati come Colorado e California, lo guardano con interesse, traendo ispirazione per alcuni regolamenti interni», osserva Bertuzzi.
Proprio questa impostazione più garantista dell’Europa ha alimentato timori di un possibile rallentamento dell’innovazione tecnologica. Ma secondo Bertuzzi la questione va letta in modo più sfumato. «Innanzitutto va notato che il regolamento europeo non può essere “incolpato” di aver rallentato l’innovazione visto che non è ancora entrato in vigore nella sua completezza. Anzi. Una legge chiara può anche favorire lo sviluppo. Il rischio vero è che le imprese, soprattutto le startup, non abbiano le risorse per stare al passo con gli obblighi previsti. Ma per queste sono già previste delle semplificazioni». Insomma, il punto è trovare un equilibrio tra innovazione e tutela: una cornice chiara può dunque anche dare certezze agli operatori e favorire l’adozione dell’IA in modo responsabile.
Una legge che vuole essere una bussola in un sistema che si muove ad altissima velocità. È davvero possibile stare al passo? «La legge è stata pensata per avere tutto un sistema di passaggi per evitare che queste regole divengano inadeguate: sono previsti infatti continui report, decreti attuativi e linee guida amministrative sempre aggiornate per stare al passo con l’innovazione», precisa l’esperto.
Infine, uno sguardo al futuro. «Ci sono molti temi emergenti. Ma la domanda che dobbiamo porci, al di là della bontà o meno di questo regolamento sul quale si è fatto un notevole sforzo, secondo me è “Che società vogliamo essere? In che modo possiamo farci trovare pronti da questa tecnologia così pervasiva come l’IA?”. Non ci siamo fatti trovare pronti all’impatto con i social media, una tecnologia piuttosto primitiva se paragonata all’Intelligenza artificiale. Non siamo stati capaci di proteggere i più giovani e i più deboli da un’esposizione senza regole ai contenuti social. Oggi all’Unione Europea va il merito di aver pensato a una giurisdizione che non nega la possibilità di usare l’Intelligenza artificiale, ma non a ogni costo», conclude Bertuzzi.