Tracciare percorsi per una governance consapevole e responsabile dell’intelligenza artificiale per portare benefici a persone, società e ambiente. Questo il tema al centro dell’evento dal titolo “AI Governance” in programma il 28 di ottobre ed organizzato da ReD OPEN in collaborazione con il Dipartimento di Giurisprudenza dell’Università di Milano Bicocca presso l’Auditorium Martinotti.
L’utilizzo delle tecniche di Intelligenza Artificiale è sempre più diffuso e con esso l’evoluzione di una governance dell’AI. Cos’è la “governance consapevole”? A che punto siamo a livello nazionale con lo sviluppo dell’AI? Lo abbiamo chiesto ad Andrea Rossetti, professore di Filosofia del diritto e Informatica giuridica dell’Università Milano-Bicocca.
Professore, cosa si intende quando si parla di “governance consapevole”?
Per definire il concetto di governance mi piace usare la metafora di una nave che non si guida ma si governa, infatti nonostante si possa stabilire una rotta da seguire per raggiungere l’obiettivo, la nave non seguirà mai una linea retta, definita, a causa di fattori esterni che agiscono continuamente sui di essa. Questa governance deve anche essere “consapevole” del processo in sé e delle sue possibili conseguenze in maniera da garantire da un lato il raggiungimento dei risultati che si intendono perseguire e, dall’altro, che questi sistemi non comportino ricadute sulla comunità.
Su quali diritti può avere un impatto l’uso dell’AI?
Partiamo dal presupposto che gli strumenti di AI sono difficilmente governabili: le macchine, attraverso algoritmi collegano dati input e output. Questi processi sono ancora incomprensibili all’uomo e non è possibile costruire macchine che li rendano espliciti. In contesto lavorativo, per esempio, l’AI è già stata usata in alcuni paesi per selezionare il personale. Si è notato però come alcuni candidati venissero scartati a causa dei bias, ovvero i “pregiudizi”, integrati da prototipi precedenti. In Cina software simili di intelligenza artificiale sono stati usati anche per individuare e sorvegliare minoranze etniche e dissidenti. Governare l’AI è difficile, ma il percorso diventa più semplice se si cambia la prospettiva e si iniziano a valutare gli impatti e i rischi delle persone sull’intelligenza artificiale. Con due punti di vista diversi, le due sessioni dell’evento del 28 ottobre cercheranno appunto di analizzare le potenzialità e i problemi di questo approccio differente, proponendo metodologie e soluzioni innovative.
A che punto siamo a livello internazionale con la regolamentazione di questa materia?
L’Europa ha definito gli anni ’20 del 2000 come il “decennio della digitalizzazione”, con un focus particolare sull’Intelligenza Artificiale. La proposta di regolamento europeo è ancora molto dibattuta a causa della scarsa possibilità di prevedere norme per limitare gli effetti negativi. Nel 2016 l’Europa è stata la prima ad emanare il GDPR che ha introdotto nuove regole in materia di trattamento dei dati personali. Anche altri Paesi extra Ue stanno portando avanti studi verso la stessa direzione. Ad esempio negli Stati Uniti la bozza di regolamento, simile a quella europea, è già stata approvata e superata da norme legislative.