Glossario AI
NLP & LINGUAGGIO

Tokenizzazione

NLP & Linguaggio

Definizione

La tokenizzazione e il processo di suddivisione di un testo in unita piu piccole (token) che il modello AI puo elaborare. Diversi modelli usano strategie diverse: alcuni dividono per parole, altri per sotto-parole. Capire la tokenizzazione aiuta a stimare i costi API (calcolati per token) e a ottimizzare i prompt per rimanere nei limiti della context window.

ESPLORA

Altri termini in NLP & Linguaggio

Vuoi applicare l'AI nella tua azienda?

Parla con noi. La prima call e gratuita e senza impegno.