L'AI Act, o Regolamento sull'Intelligenza Artificiale, rappresenta un passo significativo nella regolamentazione di questa tecnologia in rapida evoluzione. Un elemento centrale del Regolamento è il suo sistema di classificazione del rischio che mira a creare un ambiente in cui l'innovazione nell'intelligenza artificiale possa prosperare, pur garantendo che i rischi potenziali siano adeguatamente gestiti.
Per prima cosa credo che sia importante distinguere tra pericolo e rischio. Un leone è un animale pericoloso, ma il rischio di essere sbranati da un leone passeggiando in Piazza dell’Ateneo nuovo è, se non nullo (un leone potrebbe sempre scappare da un circo di passaggio), minimo. In altri casi il rischio può essere alto, ma il pericolo minimo: il rischio di essere graffiato dal gatto mentre ci si gioca è alto, ma il pericolo è minimo. Nei termini del Regolamento, il rischio è la combinazione della probabilità del verificarsi di un danno e la gravità del danno stesso.
L'AI Act definisce quattro categorie di rischio per i sistemi di intelligenza artificiale.
La prima presa in considerazione è quella di rischio inaccettabile. Questa categoria comprende sistemi che violano i valori fondamentali dell'UE o i diritti umani, come il punteggio sociale o la sorveglianza di massa. Tali sistemi sono vietati. Esempi di questa categoria includono un sistema di social score. In un sistema di social scoring immaginario, i cittadini guadagnano o perdono punti basati su comportamenti specifici. Punteggi alti possono portare a privilegi come prestiti agevolati e accesso prioritario ai servizi pubblici. Comportamenti negativi, come multe non pagate o comportamenti scorretti online, possono abbassare il punteggio, risultando in restrizioni come l'accesso limitato ai trasporti pubblici o a certi lavori. Questo punteggio influisce quindi sulla vita quotidiana, modellando l'accesso a risorse e opportunità basandosi sulla condotta individuale potenzialmente ledendo diritti che consideriamo fondamentali. Per questo i sistemi di IA che generano questo tipo di punteggio sono vietati.
La seconda categoria considerata è quella di rischio elevato: rientra in questa categoria un'ampia gamma di sistemi che potrebbero causare danni significativi in caso di malfunzionamento: sistemi di identificazione biometrica e riconoscimento facciale, sistemi di valutazione del credito e scoring, chatbot medici, sistemi di guida autonoma Per questi sistemi, l'AI Act impone requisiti rigorosi: valutazioni e test di conformità obbligatori, obbligo di adozione di misure di sicurezza e gestione del rischio, trasparenza sulla modalità di funzionamento del sistema, supervisione umana. Un esempio specifico in questa categoria è un sistema di riconoscimento facciale utilizzato per la sorveglianza in tempo reale in luoghi pubblici, In una grande città metropolitana, le autorità hanno installato telecamere di sorveglianza dotate di tecnologia di riconoscimento facciale in stazioni di metropolitana, aeroporti e piazze principali. Questo sistema è collegato a un database che contiene le immagini facciali di individui ricercati per vari crimini. Quando una telecamera identifica una corrispondenza tra un viso "in transito" e un viso nel database, il sistema allerta immediatamente le forze dell'ordine. Questo permette un intervento rapido e mirato, potenzialmente prevenendo crimini o facilitando l'arresto di sospetti, ma l’uso di questi sistemi può essere legale solo nei termini strettamente previsti dalle norme.
La terza categoria definita dal Regolamento è quella di sistemi a rischio limitato e comprende sistemi che presentano un rischio minore, come chatbot generici o software di elaborazione delle immagini. Questi sistemi devono comunque rispettare alcuni principi di trasparenza e robustezza. Ad esempio, un'azienda sviluppa un chatbot generico per fornire assistenza clienti online. Il chatbot è programmato per rispondere a domande frequenti riguardanti orari di apertura, disponibilità di prodotti e politiche di reso. Non ha accesso a dati sensibili o personali degli utenti, limitando così le implicazioni etiche e i rischi di privacy. Un altro esempio potrebbe essere un software di elaborazione delle immagini utilizzato per migliorare la qualità visiva delle foto nei cataloghi online. Questo software ottimizza automaticamente luminosità e contrasto, ma non identifica né memorizza informazioni identificative sulle persone nelle immagini. Entrambi questi sistemi presentano un rischio minore e per questo rientrano nella categoria di sistemi a rischio limitato.
Per finire, la quarta categoria riguarda i sistemi a rischio minimo o nullo. Questa categoria include sistemi con un impatto minimo o nullo sui diritti o la sicurezza delle persone, come calcolatrici o videogiochi semplici. Un esempio comune è una calcolatrice basata sull'intelligenza artificiale per smartphone. Un altro esempio potrebbe essere un'applicazione per la gestione di liste della spesa. Questa app permette agli utenti di creare e organizzare liste della spesa, impostare promemoria per gli acquisti e condividere le liste con altri utenti. Non richiede né tratta dati personali sensibili, limitandosi a informazioni generiche sui prodotti. Inoltre, l'app non interagisce con altri sistemi critici o infrastrutture, minimizzando qualsiasi tipo di rischio legato alla privacy o alla sicurezza degli utenti. La sua funzione principale è semplicemente aiutare a organizzare le attività quotidiane senza incidere su decisioni o attività di rilevanza critica.
Inoltre, vorrei sottolineare alcuni punti chiave:
L'importanza della trasparenza: L'AI Act pone una forte enfasi sulla trasparenza, richiedendo ai fornitori di sistemi di intelligenza artificiale di fornire informazioni chiare e accessibili su come funzionano i loro sistemi. Ciò contribuirà a costruire la fiducia del pubblico nell'intelligenza artificiale e a consentire un maggiore controllo sull'utilizzo di questa tecnologia.
La necessità di una supervisione umana: L'AI Act non sostituisce la supervisione umana, ma piuttosto la rafforza. In particolare, per i sistemi ad alto rischio, l'intervento umano è sempre richiesto per garantire che questi sistemi siano utilizzati in modo sicuro e responsabile.
L'importanza dell'etica nell'intelligenza artificiale: Lo sviluppo e l'utilizzo di sistemi di intelligenza artificiale devono essere guidati da principi come l'equità, la non discriminazione, la responsabilità e la privacy e in generale tutti quei diritti che definiscono la nostra tradizione etico-giuridica.
L'AI Act è un primo passo importante, ma il lavoro è appena iniziato, poiché le norme da sole non bastano: è importante che i diversi attori coinvolti, come governi, aziende, ricercatori e cittadini, continuino a collaborare tra per rendere la norma davvero efficace. Attraverso il dialogo aperto e la condivisione delle conoscenze, possiamo lavorare insieme per garantire che l'intelligenza artificiale sia sviluppata e utilizzata in modo responsabile, per il bene di tutti.