Come stabilire i confini della responsabilità nel caso di un danno provocato dal malfunzionamento di un sistema di intelligenza artificiale? «Pensiamo, per esempio – propone Davide Ciucci del dipartimento di Informatica, sistemistica e comunicazione - ai veicoli a guida autonoma e alla gestione dei potenziali incidenti o ai rischi dell'automated decision making in ambito medico». E sul fronte dei diritti? «Iniziamo a chiederci – osserva Andrea Rossetti del dipartimento di Giurisprudenza - in quali termini evolverà la disciplina della proprietà intellettuale, come il diritto d’autore, quando le opere o le immagini sono state create per mezzo dell’intelligenza artificiale». Questi sono solo alcuni dei tanti spunti che verranno affrontati nel corso dei due eventi che il 6 ottobre l’Università Bicocca propone nell’ambito della Milano Digital Week 2023. Lo sviluppo dei limiti è il tema della VI edizione della manifestazione che vuole mettere l’accento sulla costruzione di una transizione digitale inclusiva, sostenibile ed etica.
Professor Ciucci, come avete immaginato l’evento intitolato “Regains: ridurre il divario tra intelligenza artificiale e società”?
La giornata prevede l’alternarsi di una serie di approfondimenti sull’interazione uomo-machina in alcuni degli ambiti di interesse del progetto Regains del Dipartimento di eccellenza che vuole migliorare la conoscenza su metodi e approcci per la realizzazione di sistemi di intelligenza artificiali etici, responsabili, affidabili, sicuri e sostenibili.
Gli interventi del 6 ottobre toccheranno vari temi, esaminando le nuove dinamiche innescate dall’espansione dell’intelligenza artificiale. Due momenti in particolare saranno dedicati alla sfera musicale e artistica. Il professore Giuseppe Vizzari ci guiderà invece alla scoperta delle applicazioni relative alla mobilità sostenibile. Ci sarà spazio anche per riflettere sulle prossime trasformazioni che riguarderanno la didattica e su come ripensarla alla luce dell’innovazione tecnologica.
L’intelligenza artificiale può contribuire a migliorare la qualità della vita e il benessere delle persone?
Per riuscire a farlo in maniera affidabile e sicura deve essere realizzata soddisfacendo requisiti stringenti e condivisi che garantiscano un’applicazione etica e responsabile. La comunità scientifica sta affrontando proprio questa sfida: la conoscenza su come garantire queste caratteristiche a un sistema intelligente è ancora a uno stadio iniziale e il progetto Regains si propone appunto di migliorarla in modo sostanziale.
Etica e responsabilità. In quale modo la riflessione su queste proprietà può entrare all’interno della ricerca?
Per realizzare una visione di ampio respiro siamo consapevoli che non basta solo l’informatica; abbiamo bisogno di collaborare e di confrontarci con filosofi, giuristi e sociologi. Da tempo ormai, all’insegna dell’interdisciplinarità, i gruppi di ricerca sono formati sempre più da professionalità diverse. Molti altri colleghi, che non sono informatici, si occupano di intelligenza artificiale sotto profili di diversa natura; lo scambio reciproco di competenze, idee e stimoli rappresenta chiaramente sia una risorsa sia un arricchimento costante per tutti.
Quali indirizzi seguiranno gli obiettivi applicativi del progetto che si concluderà nel 2027?
Due in particolare: il miglioramento del benessere sociale e individuale e la ricerca biomedica. Il primo punto si orienta verso la ricerca di sistemi “human centered”, adattabili e personalizzabili in contesti applicativi rilevanti per la società e per l’industria, come ad esempio la produzione, l’accesso e la fruizione di informazioni veritiere, in particolare sui social media.
In secondo luogo, lo sviluppo di applicazioni di AI per la ricerca biomedica, la salute e il benessere nella direzione di una medicina sempre più personalizzata. Un’ulteriore proficua applicazione anche nell’ambito del monitoraggio, dell’assistenza e dalla riabilitazione dei pazienti, con particolare riferimento alle persone anziane.
Secondo lei, in rapporto a quale criticità serve un ulteriore sforzo?
In termini di green computing e AI sostenibile, sul duplice fronte hardware e software, tramite una ricerca strategica e lo sviluppo di tecnologie che ottimizzino e riducano l’uso di risorse e i consumi energetici necessari al funzionamento dei server e all’addestramento degli algoritmi verso un più basso impatto ambientale.
Con il professore Andrea Rossetti parliamo invece di “Responsabilità e innovazione nell'intelligenza artificiale: un imperativo per il futuro digitale”, la Conferenza a cura di ReD OPEN, spin-off giuridico dell’Università che si pone l’obiettivo di valutare l’impatto dell’AI sulle persone e sulle organizzazioni, in collaborazione con la cattedra di Informatica giuridica dell’Università degli Studi di Milano-Bicocca.
Professore lei ha evidenziato l’impossibilità di ignorare il quadro normativo che rende il funzionamento di queste macchine socialmente accettabile. Ci può fare un esempio?
Il contesto è in rapida evoluzione: a breve, nel 2024, l’Unione Europea emanerà l’AI ACT, direttamente applicabile senza necessità di essere recepito dagli Stati membri. A quel punto gli esperti e i tecnici impegnati nella produzione di sistemi di intelligenza artificiale dovranno necessariamente fare i conti con una serie di previsioni per assicurare la conformità dei prodotti. A titolo esemplificativo, sarà probabilmente introdotto il divieto di utilizzare le tecnologie in grado di riconoscere le emozioni. Il riconoscimento facciale, invece, sarà presumibilmente limitato a gravi motivi di ordine pubblico. Con lo spin-off universitario ReD Open, abbiamo pensato il framework “ResponsAbility by Design” per valutare il grado di maturità delle organizzazioni nell’adozione di sistemi di AI, anche in vista delle previsioni dell’AI ACT e ridurre così il grado di incertezza normativa.
In che modo si pone la prossima regolamentazione sull’AI rispetto al Regolamento generale sulla protezione dei dati?
I sistemi di machine learning e deep learning possono macinare grandissime quantità di dati personali ma anche non personali, quindi al di fuori del GDPR. Si tratta di due insiemi non coincidenti, nel senso che un sistema di AI potrà anche rispettare la normativa sulla privacy e, allo stesso tempo, violare i limiti imposti all’intelligenza artificiale dall’AI ACT in base alla definizione dei rischi e, conseguentemente, dei sistemi ad alto rischio. Temi di estremo interesse anche in relazione agli investimenti industriali.
La normativa riuscirà a tenere il passo della tecnologia?
No, prevedo una rincorsa. La normativa è in ritardo ma, in certo senso, si tratta di un fenomeno naturale. Le tecnologie balzano agli occhi del legislatore e vengono regolamentate soltanto quando incidono sui rapporti sociali. L’innovazione tecnologica detterà quindi il corso della produzione normativa. Parallelamente, a livello giurisprudenziale vedremo come i giudici, nazionali ed europei in ultimo grado, applicheranno di volta in volta il dettato legislativo per colmare il gap tra tecnologia e normazione.
Cosa vi aspettate dal confronto del 6 ottobre?
Un dialogo costruttivo tra tutte le parti sociali coinvolte nel pubblico. Tratteremo questioni cruciali come la trasparenza, l'equità, la privacy e la sicurezza. Alcune delle società che abbiamo invitato a partecipare, inoltre, stanno sviluppando sistemi di AI. Per noi è molto importante comprendere anche il punto di vista di chi lavora sul campo per aiutarci a delineare scenari normativi e giuridici effettivamente congrui sul futuro che ci aspetta.
Si discuterà anche del ruolo delle politiche e delle regolamentazioni nel plasmare il futuro dell'AI e nel garantire che i suoi benefici siano equamente distribuiti. Un esempio in termini di equità?
Siamo abituati a collegare il concetto di sostenibilità al rispetto per l’ambiente. Se ragioniamo in termini di sostenibilità sociale, allora parliamo di equità. Ricordo, per citare un esempio, che in base al decreto legislativo n° 104/2022 il datore di lavoro ha il dovere di segnalare ai lavoratori i sistemi che utilizza nel trattamento dei loro dati e il lavoratore ha il diritto di richiedere la revisione di una decisione che lo riguarda se è stata determinata tramite un sistema di intelligenza artificiale. Lo sviluppo dell’AI è un fenomeno pervasivo e trasversale. Il punto è capire quale utilizzo farne, comprendendo responsabilmente i limiti e interpretando consapevolmente i risultati. Dai principi costituzionali al diritto del lavoro, dalla normativa tributaria al contesto assicurativo, non c’è branca del diritto che a breve non sarà costretta a fare i conti con i nuovi problemi legati a questo genere di innovazione.