L'Unione Europea ha introdotto l'AI Act, una normativa pionieristica volta a regolamentare l'uso dell'intelligenza artificiale (IA). L'AI Act rappresenta una pietra miliare nella regolamentazione dell'intelligenza artificiale, e ha l'obiettivo di creare un ambiente sicuro e affidabile per lo sviluppo e l'uso di queste tecnologie. Educare tutti i possibili utilizzatori sulla rilevanza di questa normativa è essenziale per comprendere le implicazioni future dell'IA e prepararsi ai cambiamenti che porterà. Questo primo articolo di una serie di cinque fornisce una base di conoscenza che verrà approfondita nei successivi articoli dedicati a specifici aspetti dell'AI Act.
L'AI Act mira a creare un insieme armonizzato di regole per lo sviluppo, la commercializzazione e l'uso dell'intelligenza artificiale nell'UE. Gli obiettivi principali dell'AI Act sono:
- Sicurezza e Trasparenza: Garantire che i sistemi di IA siano sicuri, trasparenti e rispettosi dei diritti fondamentali.
- Innovazione: Promuovere l'innovazione e la competitività dell'Unione Europea nel campo dell'IA.
- Fiducia: Aumentare la fiducia dei cittadini e delle imprese nei sistemi di IA.
- Protezione dei Diritti: Salvaguardare i diritti fondamentali, come la privacy e la non discriminazione.
L'introduzione dell'AI Act nasce dalla crescente importanza dell'intelligenza artificiale nella società moderna. Con l'IA che permea sempre più ambiti della vita quotidiana, dall'assistenza sanitaria alla finanza, dalla mobilità alle applicazioni domestiche, si è reso necessario un quadro normativo chiaro per affrontare le sfide etiche e di sicurezza. Il legislatore europeo vuole in sostanza mitigare i rischi i associati all'IA, come ad esempio bias nei dati, la mancanza di trasparenza nei processi decisionali e le minacce alla privacy; vuole cerca di creare standard comune per tutti gli Stati membri, evitando frammentazioni nel mercato unico e anche, e forse soprattutto, posizionare l'Unione come leader mondiale nella regolamentazione etica e responsabile dell'IA.
L'AI Act, che si basa sull’idea di rischio (ossia la combinazione delle probabilità che si verifichi un danno con la sua gravità) fornisce una definizione di sistema di intelligenza artificiale: ogni software sviluppato con tecniche di apprendimento automatico, logica e conoscenza, che si può adattare dopo la sua diffusione e può generare output come contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti fisici o virtuali.
Il regolamente introduce anche le figure che saranno chiamate a risponde del funzionamento del sistema: il fornitore, ossia chi sviluppa un sistema di IA o lo fa sviluppare con il proprio nome o marchio; il deployer (termine che i giuristi linguisti hanno deciso di non tradurre in italiano), ossia qualsiasi entità che utilizza un sistema di IA nel contesto delle sue attività, eccetto i consumatori che lo utilizzano per fini personali; e infine il distributore, ossia chiunque, diverso dal fornitore, che immette nel mercato dell’Unione un sistema di IA.
L'AI Act è stato pubblicato il 12 luglio 2024 e entrerà in vigore 20 giorni dopo, ovvero il 1º agosto 2024. Tenendo conto di questa data, ecco un calendario dettagliato delle principali scadenze per l'attuazione degli obblighi da parte delle aziende:
1º agosto 2024: Entrata in vigore dell'AI Act. Da questa data, le aziende devono iniziare a familiarizzare con le nuove normative e prepararsi per l'adeguamento.
1º febbraio 2025: Pubblicazione delle linee guida dettagliate. La Commissione Europea fornirà indicazioni precise su come le aziende devono conformarsi ai requisiti dell'AI Act, inclusi aspetti tecnici e procedurali.
1º agosto 2025: Inizio del periodo di conformità. Le aziende devono iniziare ad adeguarsi alle nuove normative, implementando misure di sicurezza, trasparenza e rispetto dei diritti fondamentali nei loro sistemi di IA.
1º agosto 2026: Scadenza per la piena conformità. Entro questa data, tutte le aziende che operano nell'UE devono essere completamente conformi agli obblighi imposti dall'AI Act. Questo include la registrazione dei sistemi di IA ad alto rischio, la valutazione continua dei rischi e l'adozione di misure di mitigazione adeguate.
1º agosto 2027 e oltre: Monitoraggio e revisione. Dopo il 1º agosto 2026, inizierà una fase di monitoraggio continuo da parte delle autorità competenti per garantire che le aziende mantengano la conformità. Inoltre, è prevista una revisione dell'AI Act per valutare il suo impatto e apportare eventuali aggiornamenti necessari.
Queste scadenze sono cruciali per garantire che il processo di attuazione dell'AI Act avvenga in modo ordinato e che le aziende abbiano il tempo necessario per adeguarsi alle nuove normative. La conformità alle scadenze stabilite sarà fondamentale per evitare sanzioni e contribuire a un ecosistema di intelligenza artificiale sicuro ed etico nell'Unione Europea. ReD Open, lo spin off universitario dell’Università di Milano-Bicocca offre uno strumento in grado di delineare un percorso che porti nei tempi previsti alla completa compliance degli obblighi previsti dal Regolamento. Ma di questo ne parleremo nei prossimi articoli.