Modelele de embedding-uri sunt modele de învățare automată utilizate pentru a transforma date complexe și discrete – cum ar fi cuvinte, propoziții, imagini sau entități – în reprezentări numerice dense (vectori) într-un spațiu continuu. Aceste reprezentări păstrează relații semantice sau contextuale, permițând sistemelor de inteligență artificială să proceseze și să înțeleagă mai eficient informațiile.
Există diverse tipuri de modele de embedding-uri, în funcție de domeniu:
Pentru text: Word2Vec, GloVe, FastText, BERT, RoBERTa – care codifică semnificația cuvintelor în funcție de context.
Pentru imagini: CNN-uri (rețele convoluționale) care extrag caracteristici vizuale și le encodează ca vectori.
Pentru grafuri: Node2Vec, GraphSAGE sau GCN – care învață reprezentări vectoriale pentru noduri sau întregi grafuri.
Embedding-urile sunt fundamentale în aplicații precum căutarea semantică, traducerea automată, recomandări personalizate, recunoaștere facială sau analiza relațiilor între entități.