Inteligența artificială explicabilă (Explainable AI – XAI) este un domeniu al inteligenței artificiale care urmărește dezvoltarea de modele și sisteme ale căror decizii pot fi înțelese, interpretate și justificate de către oameni. Scopul este de a face procesele interne ale AI transparente, oferind explicații clare despre modul în care au fost obținute rezultatele sau predicțiile.
Inteligența artificială explicabilă este esențială în domenii critice precum sănătatea, justiția, finanțele sau siguranța, unde încrederea, responsabilitatea și conformitatea sunt vitale. Prin XAI, utilizatorii pot verifica corectitudinea deciziilor, identifica eventuale erori sau prejudecăți și colabora mai eficient cu sistemele automate, contribuind la o integrare mai sigură și etică a AI în societate.