FB18 - Das Forum für Informatik

fb18.de / Diplom Informatik / Praktische Informatik (HS)

[SNN] Ojas rule / Hebbian learning

[SNN] Ojas rule / Hebbian learning 2004-09-10 15:06
Anonymer User
hi,

Ojas rule sorgt dafür, dass es zu einem sog. weight decay kommt. Soll heißen, der Gewichtsvektor kann nicht beliebig groß werden, sondern wird immer in Abhängigkeit vom Imput korrigiert.
Preisfrage: Wieso kann der Gewichtsvektor beim "plain hebbian learning" beliebig groß werden? Die Erklärung im Skipt leuchtet mir nicht ein. Kann das jemand in Worte fassen?

Danke…

Re: [SNN] Ojas rule / Hebbian learning 2004-09-10 17:01
Anonymer User
Nachtrag: Warum ist es ein Problem, wenn die Gewichte immer größer werden?

Re: [SNN] Ojas rule / Hebbian learning 2004-09-15 17:10
Anonymer User
Nachtrag: Warum ist es ein Problem, wenn die Gewichte immer größer werden?

Die Gewichte werden immer groesser, weil die Eingabevektoren
gewichtet mit der Aehnlichkeit zum Gewichtsvektor zum Gewichtsvektor addiert werden. Dies fuehrt dazu, dass der Vektor zwar in Richtung des Mittelwerts zeigt, aber beliebig lang werden kann. Problem kann u.U. sein, dass ein betragsmaessig grosser Vektor "zu" stabil wird, also Plastizitaet verliert.