La tecnologia dell'intelligenza artificiale conversazionale ha fatto progressi significativi negli ultimi anni, con diversi modelli e piattaforme che consentono alle macchine di comprendere e rispondere a input specificati in linguaggio naturale.
Tra questi, grande risalto in questi giorni ha suscitato ChatGPT, acronimo di Chat Generative Pretrained Transformer, uno strumento di elaborazione del linguaggio naturale, realizzato dall’organizzazione OpenAI, basato su algoritmi di apprendimento automatico avanzato, che genera risposte simili a quelle umane all'interno di un discorso.
Abbiamo chiesto alla professoressa Gabriella Pasi, Pro-Rettrice per l’Internazionalizzazione, Direttore del Dipartimento di Informatica, Sistemistica e Comunicazione DISCo, e Alessandro Raganato ricercatore IKR3 Lab, di illustrarci lo scenario dell’intelligenza artificiale in evoluzione.
Professoressa Pasi, può parlarci delle capacità e delle funzioni di ChatGPT?
Pasi: “ ChatGPT è una chatbot basata su un recentissimo modello di linguaggio naturale (neural language model) sviluppato da OpenAI utilizzando una tecnologia di apprendimento automatico che si fonda su reti neurali profonde con apprendimento rafforzativo (reinforcement learning). Il modello è stato addestrato su una enorme quantità di dati (in particolare conversazioni prodotte da esperti umani) ed è in grado di generare testo in modo autonomo, con capacità di rispondere a domande con una certa accuratezza.”
Dottor Raganato quali sono alcune delle applicazioni di ChatGPT?
Raganato: “Può essere utilizzato come assistente di scrittura per generare testi quali articoli, email, e per creare chatbot in grado di supportare conversazioni complesse con gli utenti. Altre possibili applicazioni sono la traduzione di frasi o la risoluzione di semplici problemi di matematica; tuttavia i risultati conseguiti presentano molte lacune.”
Quali sono alcuni dei limiti di ChatGPT?
Pasi: “ Come qualsiasi modello basato su apprendimento automatico, ChatGPT può commettere errori nella comprensione e nella generazione di testo, quali ad esempio la generazione di risposte plausibili ma errate o prive di senso, anche replicando pregiudizi e stereotipi. Inoltre, idealmente, quando l'utente pone una domanda ambigua il modello dovrebbe chiedere dei chiarimenti per disambiguare il contesto; invece, attualmente questo non è garantito dal sistema. Un altro limite è correlato alla lingua considerata; l’accuratezza del modello dipende dalla quantità di dati di addestramento disponibili per quella lingua specifica.”
Nel corso del 2023 Open AI dovrebbe rilasciare GPT-4, l'evoluzione del motore di intelligenza artificiale che oggi suscita tanta ammirazione tra gli estimatori di ChatGPT. Si dice che il nuovo modello offra alcuni miglioramenti significativi, cosa dobbiamo aspettarci?
Pasi: “Possiamo solo fare ipotesi in questa fase; ad esempio, aspettarci una migliore qualità di generazione del testo disponibile in più lingue; sarà interessante verificare se verranno attenuati i limiti accennati precedentemente.”
Esistono altri modelli linguistici di grandi dimensioni da tenere d’occhio?
Raganato: “ Certamente, alcuni modelli sviluppati recentemente sono: LaMDA (Google), Chinchilla e Gopher (DeepMind), e Megatron-Turing Natural Language Generation (NVIDIA e Microsoft). La ricerca in questo ambito è in rapida evoluzione, molti gruppi di ricerca, sia in ambito aziendale che universitario, propongono e sviluppano nuovi modelli linguistici, ma oltre a concentrarci sulla dimensione di tali modelli, dobbiamo tenere d’occhio in quali applicazioni questi modelli vengono usati e quali misure sono adoperate per mitigare i loro limiti.”
Quali sono le implicazioni per il ruolo dell’istruzione e i rischi associati all’utilizzo di questa tecnologia sull’apprendimento da parte degli studenti?
Pasi: “Questa tecnologia presenta delle limitazioni; occorre che gli utenti, inclusi gli studenti, ne siano messi al corrente affinché possano fare un uso consapevole di questo strumento. Un tema di grande importanza è la realizzazione di sistemi di IA etici, responsabili, affidabili, sicuri e sostenibili, in grado di motivare le decisioni prese. Dobbiamo spiegare agli studenti che, come per tutte le tecnologie, c'è un tempo, un luogo e un modo di utilizzo.”
In questo viaggio intrapreso con il linguaggio quali sono le future prospettive di sviluppo?
Pasi: “Le sfide più importanti riguardano l'etica e la responsabilità dell'IA, la sicurezza dei dati e la protezione della privacy. È importante che i ricercatori lavorino in questa direzione per garantire che l'IA sia utilizzata in modo sicuro e costituisca un reale beneficio per il progresso della nostra società.
Il mio laboratorio di ricerca IKR3 (Information and Knowledge Representation, Retrieval and Reasoning Laboratory) lavora anche su queste tematiche, sulla base di finanziamenti nazionali (ad esempio PRIN - Progetti di Rilevante Interesse Nazionale), e internazionali (ad esempio Marie Skłodowska-Curie Innovative Training Networks e Doctoral Networks).
Più in generale, il Dipartimento di Informatica, Sistemistica e Comunicazione (DISCo) continuerà a sviluppare ricerca relativa a AI affidabile e responsabile; il progetto di eccellenza ReGains, recentemente ottenuto dal DISCo supporterà attività di ricerca su questo tema. Inoltre il Dipartimento continuerà a contribuire alla formazione di futuri studenti all’interno dei corsi di laurea interuniversitari dedicati all’Artificial Intelligence.”