Hvorfor er treningsfeil mindre enn testfeil?
Hvorfor er treningsfeil mindre enn testfeil?

Video: Hvorfor er treningsfeil mindre enn testfeil?

Video: Hvorfor er treningsfeil mindre enn testfeil?
Video: DCDiag.exe: Understanding Active Directory Troubleshooting 2024, April
Anonim

De treningsfeil vil vanligvis være mindre enn de testfeil fordi de samme dataene som brukes for å passe modellen brukes til å vurdere dens treningsfeil . En del av avviket mellom treningsfeil og testfeil er fordi opplæring sett og test sett har forskjellige inngangsverdier.

Følgelig, er valideringsfeilen alltid høyere enn treningsfeilen?

Men generelt sett, treningsfeil vil nesten bestandig undervurder din valideringsfeil . Det er imidlertid mulig for valideringsfeil å være mindre enn treningen . Du kan tenke på det på to måter: Din opplæring sett hadde mange "vanskelige" saker å lære.

Dessuten, hvorfor øker treningsfeilen? Imidlertid feil på testsettet reduseres bare ettersom vi legger til fleksibilitet opp til et visst punkt. I dette tilfellet skjer det ved 5 grader som fleksibilitet øker utover dette punktet treningsfeil øker fordi modellen har memorert opplæring data og støy.

På samme måte kan du spørre, hva er treningsfeil og testfeil?

Treningsfeil oppstå når a trent modellen returnerer feil etter å ha kjørt den på dataene igjen. Det begynner å returnere feil resultater. Test feil er de som skjer når en trent modellen kjøres på et datasett som den ikke har noen formening om. Det betyr at opplæring data er helt annerledes enn testing data.

Hvorfor er valideringsnøyaktigheten høyere enn treningsnøyaktigheten?

De opplæring tap er høyere fordi du har gjort det kunstig vanskeligere for nettverket å gi de riktige svarene. Imidlertid under validering alle enhetene er tilgjengelige, så nettverket har sin fulle beregningskraft - og dermed kan det yte bedre enn i opplæring.

Anbefalt: