Ho chiesto recentemente a un’intelligenza artificiale di compilare una bibliografia su un argomento piuttosto di nicchia. In pochi secondi, il risultato è apparso davanti ai miei occhi: una lista impeccabile di titoli accademici, autori autorevoli, date di pubblicazione coerenti e persino i link di riferimento.
A prima vista, un lavoro da dieci e lode. Peccato che, a una verifica più attenta, quei paper non esistessero. L’ia aveva inventato tutto. Aveva assemblato parole verosimili per costruire una menzogna perfetta, il tutto con assoluta nonchalance.
Chi usa questi strumenti quotidianamente per lavoro ha imparato presto a convivere con questo “lato oscuro”. Non si tratta di errori di calcolo, ma di una caratteristica intrinseca della tecnologia che spesso dimentichiamo.
Non è un'enciclopedia, è un generatore di probabilità
Per capire perché accade, bisogna smettere di guardare a ChatGPT o Claude come a delle enciclopedie onniscienti.
Questi modelli non sono database di fatti, ma motori probabilistici. Il loro obiettivo non è la verità, ma la plausibilità. L’algoritmo calcola instancabilmente la parola successiva che statisticamente “suona meglio” nella frase. Se il modello non conosce la risposta, non tace, riempie il vuoto. Privilegia la fluidità della forma alla sostanza dei fatti, creando quelle che in gergo tecnico chiamiamo “allucinazioni”.
Le cause dell'inganno
Oltre alla natura probabilistica, ci sono tre fattori scatenanti:
- Dati imperfetti (garbage in, garbage out): l’ia ha imparato da internet. Se il web è pieno di imprecisioni, il modello le ripete senza filtro critico.
- Il vuoto di memoria: quando mancano le informazioni o quando gli do in pasto documenti troppo lunghi, l’algoritmo riempie i buchi o dimentica i pezzi centrali, mescolando dati reali con invenzioni.
- La “compiacenza”: questo è il punto più subdolo. L’ia è addestrata per essere un assistente “utile”. Spesso, questo significa che tende a essere uno “yes-man”. Se le faccio una domanda tendenziosa (es. “perché l’idea x è geniale?”), l’ia cercherà di darmi ragione inventando argomentazioni a supporto, anche se l’idea x è pessima.
I rischi sono reali
Finché giochiamo, va bene, ma nel lavoro i rischi sono concreti. Pensiamo al caso, ormai famoso, dell’avvocato statunitense che ha usato chatgpt per scrivere una memoria difensiva (caso Mata v. avianca). Il software ha citato sentenze e precedenti legali mai esistiti. L’avvocato si è fidato, ha presentato il documento al giudice e ha finito per distruggere la sua reputazione professionale.
Esiste una cura?
Non esiste una pillola magica che elimini il rischio al cento per cento, ma l’approccio professionale sta cambiando radicalmente.
1. La soluzione tecnica: rag (retrieval augmented generation)
Per l’uso aziendale serio, non ci si affida alla “memoria” generica di chatgpt. La soluzione è il rag. In pratica, si costringe l’ia a rispondere attingendo esclusivamente da una “biblioteca” di documenti aziendali verificati, riducendo lo spazio di manovra della sua fantasia.
2. Cosa posso fare io? Prompt engineering!
Molto dipende anche da come chiediamo le cose. Ho notato che la qualità delle risposte migliora se:
- Chiedo di ragionare: ordino al modello di “spiegare i passaggi logici passo dopo passo” prima di darmi la soluzione finale.
- Assegno un ruolo critico: per evitare la compiacenza, dico al modello: “agisci come un revisore severo e imparziale. Non darmi ragione a prescindere, ma analizza i fatti”.
- Do una via di uscita: scrivo esplicitamente: “se non trovi l’informazione nel testo, rispondi “non lo so”, non inventare nulla”.
- Chiedo le fonti: pretendo che mi indichi sempre da dove ha preso quel dato.
Conclusioni
L’intelligenza artificiale rimane un alleato potente, un motore di ragionamento senza pari, ma va trattata per quello che è: un aiutante brillante e con una preoccupante tendenza a inventarsi le cose pur di fare bella figura. Controllare il suo lavoro non è un optional, è l’unico modo per usarla nel modo giusto.