Home»articoli»Allucinazioni dell’intelligenza artificiale: profili tecnici e impatti nell’uso professionale

Allucinazioni dell’intelligenza artificiale: profili tecnici e impatti nell’uso professionale

di: Giampiero Gabrielli
0
Condivisioni
Pinterest WhatsApp

Nel settore dell’intelligenza artificiale il termine “allucinazione” indica la generazione di contenuti errati, non supportati da fonti attendibili oppure incoerenti rispetto alla richiesta ricevuta. Il fenomeno è osservato in particolare nei modelli linguistici di grandi dimensioni, definiti LLM (Large Language Models), progettati per produrre testo, riassunti, codice o risposte in linguaggio naturale.

Dal punto di vista tecnico, un’allucinazione si verifica quando il modello restituisce un output apparentemente plausibile sul piano linguistico ma non corretto sul piano fattuale. Ciò può avvenire, ad esempio, mediante l’invenzione di riferimenti normativi, l’attribuzione di dati numerici inesatti, la citazione di sentenze inesistenti, la ricostruzione impropria di eventi o l’uso improprio di terminologia specialistica.

La causa principale risiede nel funzionamento probabilistico dei modelli generativi. Un LLM non “conosce” i fatti nel senso tradizionale del termine, ma calcola la sequenza di parole statisticamente più probabile sulla base dei dati utilizzati in fase di addestramento (training). In mancanza di una fonte esterna aggiornata o di un controllo documentale, il sistema può produrre una risposta formalmente coerente ma priva di riscontro oggettivo.

Per contenere questo limite vengono adottate varie tecniche. Tra queste vi è il grounding, cioè il collegamento della risposta a documenti o basi dati reali, e il sistema RAG (Retrieval-Augmented Generation), che combina la generazione del testo con il recupero preliminare di informazioni pertinenti da archivi selezionati. In tali configurazioni il modello non risponde solo sulla base dell’addestramento originario, ma utilizza contenuti documentali richiamati al momento della richiesta.

Un altro elemento rilevante è il prompt, ossia l’istruzione fornita dall’utente. Richieste generiche, ambigue o prive di contesto possono aumentare il rischio di errore. Al contrario, indicazioni puntuali, limiti chiari, richiesta di fonti ufficiali e delimitazione temporale dell’argomento tendono a migliorare la qualità del risultato.

Negli ambiti professionali il tema assume rilievo operativo. Nella pubblica amministrazione il rischio riguarda richiami normativi non corretti, sintesi procedurali incomplete o riferimenti giurisprudenziali inesatti. Nei settori tecnici e industriali possono emergere errori relativi a standard, procedure di sicurezza, specifiche progettuali o interpretazione documentale. In campo geologico e ambientale il problema può interessare classificazioni stratigrafiche, richiami al D.Lgs. 152/2006, procedure di bonifica, modellazioni idrogeologiche o lettura di dati di monitoraggio.

Per questo motivo l’impiego dell’AI in contesti professionali richiede una validazione umana qualificata. Il sistema può costituire uno strumento di supporto per ricerca preliminare, organizzazione dei contenuti, analisi documentale e redazione tecnica, ma non sostituisce il controllo del professionista responsabile. Nei procedimenti che incidono su sicurezza, ambiente, appalti, responsabilità tecniche o adempimenti normativi, la verifica finale resta un passaggio necessario.

Articolo precedente

PNRR, aggiornati finanziamenti e interventi per la bonifica dei siti orfani

Articolo successivo

Questo è l'articolo più recente.