Glossario AI
AI FONDAMENTALI

Hallucination (Allucinazione)

AI Fondamentali

Definizione

Un'allucinazione AI si verifica quando un modello linguistico genera informazioni false presentandole come vere con sicurezza. I LLM non 'sanno' cosa e vero: generano testo statisticamente probabile. Per le aziende, questo significa che ogni output AI va verificato, e i sistemi RAG sono preferibili perche ancorano le risposte a documenti reali.

ESPLORA

Altri termini in AI Fondamentali

Vuoi applicare l'AI nella tua azienda?

Parla con noi. La prima call e gratuita e senza impegno.