[SNN] Ojas rule / Hebbian learning
2004-09-10 15:06
Anonymer User
hi,
Ojas rule sorgt dafür, dass es zu einem sog. weight decay kommt. Soll heißen, der Gewichtsvektor kann nicht beliebig groß werden, sondern wird immer in Abhängigkeit vom Imput korrigiert.
Preisfrage: Wieso kann der Gewichtsvektor beim "plain hebbian learning" beliebig groß werden? Die Erklärung im Skipt leuchtet mir nicht ein. Kann das jemand in Worte fassen?
Danke…
Ojas rule sorgt dafür, dass es zu einem sog. weight decay kommt. Soll heißen, der Gewichtsvektor kann nicht beliebig groß werden, sondern wird immer in Abhängigkeit vom Imput korrigiert.
Preisfrage: Wieso kann der Gewichtsvektor beim "plain hebbian learning" beliebig groß werden? Die Erklärung im Skipt leuchtet mir nicht ein. Kann das jemand in Worte fassen?
Danke…