Přeskočit na obsah

Gradientní sestup: Porovnání verzí

Z Wikipedie, otevřené encyklopedie
Smazaný obsah Přidaný obsah
vytvořeno překladem stránky „Gradient descent
značky: editace z rozšíření Překlad Překlad 2
(Žádný rozdíl)

Verze z 19. 1. 2021, 13:53

Gradientní sestup (anglicky gradient descent) je iterativní optimalizační algoritmus prvního řádu pro nalezení lokálního minima diferencovatelné funkce. Myšlenkou metody je posouvat se z výchozího bodu po krocích vždy v opačném směru gradientu (nebo přibližného gradientu) funkce v daném bodě, protože to je směr nejstrmějšího klesání její hodnoty. Naopak krokování ve směru gradientu povede k lokánímu maximu této funkce; postup je pak známý jako gradientní výstup.

Algoritmus se přičítá Cauchymu, který ho poprvé zmínil v roce 1847, ale jeho konvergenční vlastnosti pro nelineární optimalizační problémy byly poprvé studovány Haskellem Currym v roce 1944.

Popis

Gradientní sestup a vrstevnice minimalizované funkce

Gradientní sestup je založen na pozorování, že pokud je funkce více proměnných definována a diferencovatelná v sousedství bodu , pak klesá nejrychleji, pokud se jde z ve směru záporného gradientu v . Z toho vyplývá, že se v řadě iterací z posuneme k nižší hodnotě funkce v bodě pokud

pro dost malé, aby platilo . Jinými slovy člen odčítáme od , protože se chceme pohybovat proti nejstrmějšímu nárůstu směrem k lokálnímu minimu. Vyjděme tedy z libovolného (náhodně nebo záměrně zvoleného) bodu , v němž je definovaná a diferencovatelná, a zvažujme posloupnost definovanou jako

Ta odpovídá monotónní posloupnosti

takže lze doufat, že dokonverguje k nějakému lokálnímu minimu (pokud nebude divergovat k mínus nekonečnu, což by znamenalo nalezení globálního infima ). Všimněte si, že hodnota velikosti kroku se může měnit při každé iteraci. S určitými předpoklady o funkci - například lokálně konvexní a lipschitzovská - a o algoritmu výběru - např. Barzilai-Borweinovou metodou[1]

lze zaručit konvergenci na lokální minimum. Pokud je funkce konvexní, lze zaručit nalezení globálního řešení.

Gradientní sestup funguje v prostorech libovolné dimenze, dokonce i v nekonečněrozměrných prostorech. V tom případě se obvykle prohledává nějaký prostor funkcí a počítá se Fréchetova derivace funkcionálu, který se má minimalizovat, aby se určil směr sestupu.[2]

  1. [s.l.]: [s.n.] ISBN 0-387-24254-6. 
  2. [s.l.]: [s.n.] ISBN 0-08-023036-9.