Hva er regularisert lineær regresjon?
Hva er regularisert lineær regresjon?

Video: Hva er regularisert lineær regresjon?

Video: Hva er regularisert lineær regresjon?
Video: KUNSTIGE NEURALE NETTVERK ALGORITM | SCIKIT LÆR | PYTHON MASKIN LÆRKURSER 2024, April
Anonim

Regulering . Dette er en form for regresjon , som begrenser/regulariserer eller krymper koeffisientestimatene mot null. Med andre ord, fraråder denne teknikken å lære en mer kompleks eller fleksibel modell , for å unngå risiko for overmontering. Et enkelt forhold for lineær regresjon ser slik ut.

Tilsvarende, hva er lambda i lineær regresjon?

Når vi har høy grad lineær polynom som brukes til å passe et sett med punkter i en lineær regresjon oppsett, for å forhindre overtilpasning, bruker vi regularisering, og vi inkluderer en lambda parameter i kostnadsfunksjonen. Dette lambda brukes deretter til å oppdatere theta-parametrene i gradient-nedstigningsalgoritmen.

For det andre, hva er hensikten med regularisering? Regulering er en teknikk som brukes for å stille inn funksjon ved å legge til en ekstra strafferamme i feilen funksjon . Tilleggsbegrepet styrer det overdrevent fluktuerende funksjon slik at koeffisientene ikke tar ekstreme verdier.

På denne måten, hvorfor trenger vi å regularisere i regresjon?

Målet med regularisering er å unngå overfitting, med andre ord vi prøver å unngå modeller som passer ekstremt godt til treningsdataene (data som brukes til å bygge modellen), men som passer dårlig til testdata (data som brukes til å teste hvor god modellen er). Dette er kjent som overfitting.

Hva betyr regularisering?

I matematikk, statistikk og informatikk, spesielt innen maskinlæring og omvendte problemer, regularisering er prosessen med å legge til informasjon for å løse et uheldig problem eller for å forhindre overmontering. Regulering gjelder objektive funksjoner i dårlig stilte optimaliseringsproblemer.

Anbefalt: