next 2.4.4 Veta o konvergencii perceptrónu
previous 2.4.2 Topológia perceptrónu
up 2.4 Perceptrón - najjednoduch¹ia neurónová sieť
Obsah


2.4.3 Algoritmus učenia perceptróna

Najprv uká¾eme algoritmus procesu uèenia - teda hľadania vhodných synaptických váh, a potom pre tento algoritmus doká¾eme vetu o konvergencii perceptrónu, tj. doká¾eme, ¾e po koneènom poète krokov JPR sa dostane do stavu, v ktorom obidve triedy vie separovať.
Postup uèenia JPR bude teda nasledovný:


Prepokladajme, že $({\bf x}(1), d^1), ({\bf x}(2), d^2, ..., ({\bf x}(m), d^m)$ je trénujúca vzorka vektorov, na ktorej sa bude perceptrón uèiť, ${\bf x}(t) \in R^n,$ $d^t~=~ 1$, ak ${\bf x}(t)~\in~ {\bf CL1}$, $d^t~=~-1$, ak ${\bf x}(t) \in {\bf CL2}$.

previous next up
CIG Homepage(E-mail us!)