Definizione
BERT (Bidirectional Encoder Representations from Transformers) e un modello linguistico sviluppato da Google che comprende il contesto di una parola guardando sia a sinistra che a destra nel testo. E particolarmente efficace per compiti di comprensione come classificazione, risposta a domande e ricerca semantica. Molti sistemi di ricerca aziendale usano BERT dietro le quinte.
Termini correlati
ESPLORA
Altri termini in NLP & Linguaggio
Vuoi applicare l'AI nella tua azienda?
Parla con noi. La prima call e gratuita e senza impegno.