Oltre l'ideologia dell'intelligenza artificiale - Bnews Oltre l'ideologia dell'intelligenza artificiale

Oggi si parla moltissmo di intelligenza artificiale, non sempre però con la necessaria consapevolezza. Con l'aiuto della professoressa Silvia Salardi, docente di Filosofia del diritto, cerchiamo di capire quali sono i rischi che si nascondono dietro un'accettazione acritica e semplicistica dei presupposti del linguaggio corrente.

Cominciamo dal suo ultimo libro per capire quale è il punto di vista da cui guarda a questo tema

Il volume ‘Intelligenza artificiale e semantica del cambiamento: una lettura critica’ affronta il tema dell’IA in chiave filosofico-giuridica, nella prospettiva della filosofia del diritto di indirizzo analitico-linguistico. Questo approccio consente di studiare l’uso del linguaggio nella narrazione dell’IA nel linguaggio ordinario, mediatico, istituzionale e giuridico e di analizzare questi linguaggi nelle loro interazioni. Questa analisi mette in evidenza che la tassonomia concettuale della narrazione dell’IA esprime un processo di antropomorfizzazione che si è venuto consolidando nel secolo, scorso anche grazie alla cinematografia e al contributo letterario sul tema. Questo fenomeno non è di per sé negativo, ma lo diventa nella misura in cui il processo di comparazione tra essere umano e macchinico tende a mettere in evidenza solo i limiti del primo e a esaltare esclusivamente le potenzialità del secondo. Ciò è tanto più problematico quanto più l’IA è applicata a un ampio spettro di attività umane e se ne richiede una regolazione giuridica. Vi sono stati esempi a livello istituzionale dell’influenza di questa visione sul linguaggio istituzionale. Nel 2017, ad esempio, la proposta di attribuzione di personalità giuridica ai robot, elaborata dal Parlamento europeo, aveva acceso un forte dibattito sull’opportunità di un’estensione ai robot di una categoria giuridica come la personalità, così strettamente collegata ai diritti dell’uomo.

Bisognerebbe riflettere sulla definizione stessa?

Quando la nozione è stata coniata nel 1956 non credo ci si potesse immaginare i risvolti successivi dell’impiego di una espressione così fortemente connotata come quella di intelligenza accompagnata dall’aggettivo artificiale. L’uso di questo termine, che ha stratificato significati emotivi durante la sua storia, rende più difficile la comprensione da parte dei non esperti delle reali potenzialità e limiti del macchinico, essendo influenzata da una tassonomia concettuale che agisce sottotraccia quando si affronta pubblicamente il dibattito.

Sorge però spontanea una domanda: non è sempre avvenuto storicamente che gli esseri umani si siano riflessi negli strumenti che erano più in voga nella loro epoca?

Qui il problema non è riflettersi nel macchinico, ma passare il messaggio che quelli che vengono considerati i limiti naturali dell’essere umano siano necessariamente qualcosa di negativo, dando quindi sostanza alle persistenti visioni riduzionistiche e deterministiche relative all’umano. Invece, il messaggio dovrebbe puntare l’attenzione sugli impieghi dell’IA utili a superare problemi e criticità delle società moderne, ad esempio, le questioni amministrative e organizzative, in un’ottica di miglioramento del benessere e della qualità di vita delle persone.

In questo scenario, occorre mantenere alta l’attenzione per quei problemi che l’IA ancora presenta nelle sue applicazioni e che possono incidire sull’ottimale risultato ottenibile con il suo impiego, ad esempio il problema dei bias presenti nei dataset e quindi della pulizia dei dati su cui gli algoritmi vengono addestrati.

Nel suo libro dedica molta attenzione al tema dell’intelligenza artificiale in ambito medico

L’ambito della medicina rappresenta un osservatorio privilegiato dei possibili usi dell’IA per migliorare le prestazioni, in particolare le capacità di diagnosi. Tuttavia, proprio in questo ambito, il problema tecnico, a cui accennavo prima, relativo ai dataset, che ancora presentano problemi di non esaustività, di incompletezza, di bias, richiede che l’IA sia usata ancora con cautela.

In particolare, la sua ricaduta sulla relazione tra medico e paziente è ancora in fase di studio. Lo stesso Consiglio d’Europa ha pubblicato un rapporto su questa tematica nel 2022. Il modello informativo, a cui si ispira anche la legge 219 del 2017, attribuisce centralità alla comunicazione dell’informazione come presupposto per l’esercizio dell’autonomia del paziente. Quali cambiamenti l’introduzione dell’IA nel processo diagnostico produrrà sul processo comunicativo è ancora da determinare, ma già alcune normative richiedono al medico di comunicare al paziente l’utilizzo di questa tecnologia nella formulazione della diagnosi, come presupposto per un consenso informato valido.

E l’AI act che il Parlamento europeo ha appena approvato, come lo valuta?

In gran parte è certamente positivo, specialmente nel tentativo, così come avvenuto con il GDPR, di essere trasversale, transnazionale, quindi di indicare anche ad altri soggetti internazionali la strada da seguire in termini di regole, sempre all’interno della cornice dei diritti fondamentali. Il limite di questa azione è che l’Unione Europea ha un ruolo d’avanguardia nella regolamentazione, ma non detiene il primato dal punto di vista tecnologico e spesso chi detiene il meglio delle tecnologie detta le regole del gioco. Gli attori privati tendono a porre in primo piano interessi di parte; possono anche far mostra di essere compliant con l’interesse generale, mediante regolamenti o codici interni, ma non di rado l’operazione si risolve più in una forma di ethic washing che in un’effettiva adesione.

E per quanto riguarda il tema del cambiamento climatico?

Si parla molto del contributo positivo che l’IA e il processo di digitalizzazione potranno dare per un miglioramento della problematica del cambiamento climatico.

Tuttavia, il funzionamento dell’IA è esso stesso causa di grande consumo energetico e di risorse naturali. Pertanto, si sta cominciando a studiare questo aspetto per trovare delle soluzioni. Ciò che si evince da questa doppia faccia dell’IA è che non potrà essere la soluzione definitiva al problema del cambiamento climatico di tipo antropogenico, ciò perché questa problematica non può essere affrontata solo cercando soluzioni tecniche, ma occorre un serio e costruttivo impegno sul piano culturale, morale e sociale per ottenere un effettivo cambio di rotta. Le soluzioni tecniche possono, certamente essere utili, ma non per ogni problema causato dall’essere umano esistono soluzioni tecniche adeguate. Ce lo ricordava nel 1968 Garret Hardin in tema di beni comuni. Occorre pertanto muoversi entro orizzonti valoriali in grado di indurre cambiamenti nei comportamenti, ad esempio, la cornice dei diritti umani può essere utile a tale scopo.