Definizione
La tokenizzazione e il processo di suddivisione di un testo in unita piu piccole (token) che il modello AI puo elaborare. Diversi modelli usano strategie diverse: alcuni dividono per parole, altri per sotto-parole. Capire la tokenizzazione aiuta a stimare i costi API (calcolati per token) e a ottimizzare i prompt per rimanere nei limiti della context window.
Termini correlati
ESPLORA
Altri termini in NLP & Linguaggio
Vuoi applicare l'AI nella tua azienda?
Parla con noi. La prima call e gratuita e senza impegno.