Explainable AI
Forstå hvordan AI laver predictions
Hvad er Explainable AI?
Explainable AI (forklarlig kunstig intelligens) handler om at gøre det tydeligt, hvordan en AI-model når frem til sine forudsigelser. Det kan ske ved hjælp af visualiseringer, regler, inputanalyse eller teknikker som SHAP og LIME. Målet er at sikre gennemsigtighed, så både brugere og beslutningstagere kan stole på modellens resultater – og forstå dem. Det er særligt relevant i kritiske anvendelser, hvor AI påvirker mennesker direkte – og i nogle tilfælde kan det endda være et lovkrav, fx i forbindelse med kreditvurdering i banker. Men det er ikke altid muligt eller nødvendigt at forklare alt, som vi fx ser det med visse typer medicin, hvor virkningsmekanismen stadig er ukendt.
Hvorfor er Explainable AI relevant?
Når virksomheder anvender AI i forretningskritiske sammenhænge, er det afgørende at kunne forklare og dokumentere modellens adfærd. Det handler ikke kun om etik og compliance, men også om at opnå accept og tillid blandt brugere. I vores AI-rådgivning hjælper vi organisationer med at implementere principper for ansvarlig og forklarlig AI – ofte som en del af bredere AI governance-tiltag.