Caixes negres

Anomenem “caixes negres” les coses que no entenem per què no es veu el que passa dins de la caixa. Molts algorismes d’aprenentatge automàtic són “caixes negres”, el que significa que no entenem com un sistema utilitza les característiques de les dades quan pren les seves decisions (en general, sabem quines característiques s’utilitzen, però no com s’utilitzen). Actualment, hi ha dues maneres principals de tirar el teló de les caixes negres dels algorismes d’IA: aprenentatge automàtic interpretable (vegeu la definició anterior) i aprenentatge automàtic explicable (vegeu la definició a continuació).


Etiquetes:

Actualitzat: 24/06/2023

Scroll to Top