ChatGPT: parliamone al pub. L’intervento di Gabriella Pasi all’evento Pint of Science Italia - Bnews ChatGPT: parliamone al pub. L’intervento di Gabriella Pasi all’evento Pint of Science Italia

ChatGPT: parliamone al pub. L’intervento di Gabriella Pasi all’evento Pint of Science Italia

ChatGPT

L’algoritmo di Intelligenza Artificiale generativa Chat GPT continua a far parlare molto di sé soprattutto in seguito alla limitazione imposta dal Garante della Privacy, che è stata poi revocata il 28 aprile 2023, permettendo a Chat GPT di tornare disponibile in Italia dopo che a società OpenAI ha predisposto e pubblicato sul proprio sito internet un’informativa e una serie di azioni per la tutela e il trattamento dei dati personali. 

Un’occasione diversa dal solito per parlarne è il Pint of Science Festival in programma dal 22 al 24 maggio a Milano, l’evento che dal 2013 ha portato al grande pubblico alcuni dei più rinomati ricercatori a raccontare il loro lavoro innovativo agli amanti della scienza e della convivialità al pub.

Tra i relatori anche la professoressa Gabriella Pasi, Pro-Rettrice per l’Internazionalizzazione, Direttrice del Dipartimento di Informatica, Sistemistica e Comunicazione DISCo.

Professoressa Pasi, per il suo intervento al festival Pint of Science del 22 maggio ha scelto un titolo particolare: “Perché il maialetto non dorme mai? Limiti, potenzialità e rischi di ChatGPT” ci può dare qualche anticipazione?

Il mio intervento ha l'obiettivo principale di fare un po' di chiarezza su Intelligenza Artificiale e Intelligenza artificiale generativa, per far luce su alcuni luoghi comuni e false credenze, in particolare, in relazione agli algoritmi che generano testi in linguaggio naturale. 

Dopo avere introdotto alcuni concetti generali, parlerò del principio di funzionamento degli algoritmi noti con il nome di large language model (LLM), e in particolare di ChatGPT, l'esempio più noto e accessibile a una vasta platea di utenti. In questo contesto cercherò di mettere in risalto potenzialità e rischi dell'utilizzo di questa tecnologia, rischi che possono essere mitigati con una consapevolezza dei suoi limiti, quali ad esempio l'incapacità di comprendere il contesto, che porta a produrre le cosiddette "allucinazioni" (produzione di contenuti falsi). 

Un'introduzione al principio di funzionamento dei LLM potrà fornire un'idea di come il paradigma dell'apprendimento automatico, che consente agli algoritmi di imparare sulla base di un ingente numero di esempi, abbia il limite di non supportare alcun ragionamento nella generazione di testi, oltre ad avere il limite dell'opacità degli algoritmi, che non sono cioè in grado di fornire spiegazioni sui risultati prodotti perché basati su modelli non "trasparenti".

Vai al Programma completo di eventi Pint of Science