Definizione
Un'allucinazione AI si verifica quando un modello linguistico genera informazioni false presentandole come vere con sicurezza. I LLM non 'sanno' cosa e vero: generano testo statisticamente probabile. Per le aziende, questo significa che ogni output AI va verificato, e i sistemi RAG sono preferibili perche ancorano le risposte a documenti reali.
Termini correlati
ESPLORA
Altri termini in AI Fondamentali
Vuoi applicare l'AI nella tua azienda?
Parla con noi. La prima call e gratuita e senza impegno.