Word Embeddings reprezintă o tehnică de reprezentare numerică a cuvintelor într-un spațiu vectorial continuu, utilizată în procesarea limbajului natural (NLP). În această reprezentare fiecare cuvânt este asociat cu un vector de dimensiuni fixe, ale cărui valori sunt învățate pe baza contextelor în care cuvântul apare în corpusul de antrenament. Scopul acestei metode este de a captura relațiile semantice și sintactice dintre cuvinte, astfel încât termeni cu sensuri similare să fie reprezentați prin vectori apropiați din punct de vedere geometric.
Aceste reprezentări dense și distribuite înlocuiesc abordările tradiționale bazate pe vectori sparși (precum modelul bag-of-words), reducând dimensionalitatea și îmbunătățind performanța algoritmilor NLP. Modele precum Word2Vec, GloVe sau FastText sunt exemple consacrate de generare a word embeddings, iar integrarea lor permite rețelelor neuronale să recunoască asemănări, analogii și relații complexe între termeni.