Adversarial Training

Gør dine AI-modeller robuste over for manipulation

Hvad er Adversarial Training?

Adversarial Training er en teknik, hvor man bevidst udsætter en AI-model for manipulerede eller “forstyrrende” inputs under træningen for at gøre den mere robust. Modellen lærer altså at håndtere data, der forsøger at forvirre eller snyde den.

Hvorfor er Adversarial Training relevant?

Adversarial Training anvendes ofte i billedgenkendelse, cybersikkerhed og sensitive systemer, hvor det er kritisk, at AI’en ikke kan manipuleres. Det øger tilliden til systemets pålidelighed.

Relaterede begreber