Bagging

Et trick til mere stabile og præcise AI-modeller

Hvad er bagging?

Bagging (Bootstrap Aggregating) er en metode, hvor flere modeller trænes på forskellige datasæt og derefter kombineres. Det mindsker overfitting og øger præcisionen.

Hvorfor er bagging relevant?

Bagging anvendes i mange klassiske AI-modeller som Random Forests, og det er en udbredt teknik, når man vil skabe robuste løsninger uden at miste generaliseringsevne.

Relaterede begreber