Overfitting-ul este un fenomen în învățarea automată în care un model AI învață prea bine detaliile și zgomotul din datele de antrenament, ajungând să aibă performanță foarte bună pe aceste date, dar slabă pe date noi, neîntâlnite. Practic, modelul „memorează” informațiile în loc să „învețe” tiparele generalizabile.
Overfitting-ul este o problemă comună, mai ales în cazul modelelor complexe sau atunci când setul de date este prea mic sau dezechilibrat. Pentru a-l preveni, se folosesc tehnici precum regularizarea (L1/L2), reducerea complexității modelului, early stopping, creșterea cantității de date sau utilizarea validării încrucișate (cross-validation). Un model bine antrenat trebuie să generalizeze, adică să funcționeze corect și pe datele din afara setului de antrenament.