Definizione
Un word embedding e una rappresentazione vettoriale di una parola che ne cattura il significato semantico e le relazioni con altre parole. Parole con significati simili hanno vettori vicini. Word2Vec e GloVe sono stati tra i primi modelli di word embedding. Oggi i modelli contestuali (BERT, GPT) generano embedding che variano in base al contesto della frase.
Termini correlati
ESPLORA
Altri termini in NLP & Linguaggio
Vuoi applicare l'AI nella tua azienda?
Parla con noi. La prima call e gratuita e senza impegno.