Modelele de limbaj mari (Large Language Models – LLMs) sunt rețele neuronale de dimensiuni foarte mari, antrenate pe cantități masive de date text, cu scopul de a înțelege, genera și manipula limbajul natural într-un mod coerent și contextual. Aceste modele, precum GPT, BERT, LLaMA sau Claude, utilizează arhitecturi de tip Transformer și pot conține miliarde sau chiar trilioane de parametri.
LLM-urile sunt capabile să rezolve o varietate largă de sarcini: traducere automată, generare de conținut, răspuns la întrebări, rezumare, clasificare de text, codare, analiză semantică sau conversație naturală. Datorită capacității lor de a generaliza din date diverse, ele sunt folosite ca bază pentru aplicații avansate de inteligență artificială conversațională, asistenți virtuali, motoare de căutare și sisteme de suport decizional. Pe lângă performanță, dezvoltarea și utilizarea LLM-urilor ridică provocări legate de etică, bias, transparență și consum energetic.