Etica AI reprezintă domeniul interdisciplinar care studiază principiile, valorile și normele ce ghidează dezvoltarea, implementarea și utilizarea tehnologiilor de inteligență artificială. Aceasta abordează aspecte legate de responsabilitatea dezvoltatorilor și utilizatorilor, transparența algoritmică, protecția datelor cu caracter personal, nediscriminarea și evitarea prejudecăților algoritmice. Scopul principal este de a asigura că sistemele AI funcționează în mod corect, sigur și conform cadrului legislativ și social, minimizând riscurile asociate cu deciziile automatizate și cu impactul lor asupra societății.
Aplicarea principiilor de etică AI presupune integrarea mecanismelor de audit și evaluare a algoritmilor, definirea unor standarde de guvernanță tehnologică și adoptarea unor politici organizaționale care să prevină utilizarea abuzivă a tehnologiei.