Hoekom stogastiese gradiënt-afkoms?

INHOUDSOPGAWE:

Hoekom stogastiese gradiënt-afkoms?
Hoekom stogastiese gradiënt-afkoms?

Video: Hoekom stogastiese gradiënt-afkoms?

Video: Hoekom stogastiese gradiënt-afkoms?
Video: Stochastic Gradient Descent, Clearly Explained!!! 2024, November
Anonim

Volgens 'n senior datawetenskaplike is een van die duidelike voordele van die gebruik van Stogastiese Gradiënt-afkoms dat dit die berekeninge vinniger doen as gradiënt-afkoms en bondelgradiënt-afkoms … Ook, op massiewe datastelle, stogastiese gradiënt-afkoms kan vinniger konvergeer omdat dit meer gereeld opdaterings uitvoer.

Waarvoor word Stogastiese Gradiënt-afkoms gebruik?

Stogastiese gradiënt-afkoms is 'n optimaliseringsalgoritme wat dikwels in masjienleertoepassings gebruik word om die modelparameters te vind wat ooreenstem met die beste passing tussen voorspelde en werklike uitsette Dit is 'n onakkurate maar kragtige tegniek. Stogastiese gradiëntafkoms word wyd gebruik in masjienleertoepassings.

Waarom moet ons Stogastiese Gradiënt-afkoms eerder as standaardgradiënt-afkoms gebruik om 'n konvolusionele neurale netwerk op te lei?

Stogastiese gradiënt-afkoms dateer die parameters vir elke waarneming op wat lei tot meer aantal opdaterings. Dit is dus 'n vinniger benadering wat help met vinniger besluitneming. Vinniger opdaterings in verskillende rigtings kan in hierdie animasie opgemerk word.

Hoekom verkies ons gradiënt-afkoms?

Die hoofrede waarom gradiënt-afkoms vir lineêre regressie gebruik word, is die berekeningskompleksiteit: dit is berekeningsgewys goedkoper (vinniger) om die oplossing te vind deur in sommige gevalle die gradiënt-afkoms te gebruik. Hier moet jy die matriks X′X bereken en dit dan omkeer (sien nota hieronder). Dis 'n duur berekening.

Waarom word SGD gebruik?

Stogastiese gradiënt-afkoms (dikwels afgekort SGD) is 'n iteratiewe metode vir die optimalisering van 'n objektiewe funksie met geskikte gladheidseienskappe (bv. differensieerbaar of onderdifferensieerbaar).

Aanbeveel: