Gradientul de coborâre (Gradient Descent) este un algoritm fundamental de optimizare utilizat în antrenarea modelelor de inteligență artificială, în special a rețelelor neuronale. Scopul său este de a minimiza o funcție de eroare (pierdere) ajustând treptat parametrii modelului – cum ar fi greutățile – în direcția opusă gradientului (pantei) acestei funcții.
Prin parcurgerea iterativă a spațiului de soluții și actualizarea parametrilor pe baza derivatelor parțiale, gradientul de coborâre permite modelului să învețe și să se apropie de o soluție optimă. Există mai multe variante, precum stochastic, batch sau mini-batch gradient descent, fiecare având avantaje specifice în funcție de complexitatea și volumul datelor.