next 2.4.3 Algoritmus učenia perceptróna
previous 2.4.1 Čo je to perceptrón ?
up 2.4 Perceptrón - najjednoduch¹ia neurónová sieť
Obsah


2.4.2 Topológia perceptrónu

Oznaème perceptrón, ktorý bol navrhnutý Rosenblattom ako jednoduchý perceptrón so svojím uèiacim algoritmom (ďalej JPR ). Má tri vrstvy a to :

Obrázok 2.8: Topológia perceptrónu navrhnutého Rosenblattom
\begin{figure}
\begin{center}
\epsfig {file=img/28.ps}
\end{center}
\end{figure}

Asociatívne neuróny boli urèené na stanovenie príznakov vhodných na klasifikáciu a v literatúre sa niekedy nazývajú aj $\phi$ funkcie. Podľa charakteru tejto funkcie v podstate mô¾eme zatriediť JPR do rôznych skupín NN. Spojenie medzi senzorovou vrstvou a asociatívnou má pevné váhy, teda sa na procese uèenia nezúèastòuje. Spojenie medzi asociatívnou vrstvou a výstupným neurónom je prepojené synapsiami s premenlivými SV. Teda vstup do výstupného neurónu bol daný rovnicou
\begin{displaymath}
in(t)~=~\sum_{j=1}^{n} w_{j}(t)x_{j}(t)~-~\theta
\end{displaymath} (2.12)

kde n je poèet neurónov v asociatívnej vrstve, $w_{j}(t)$ sú váhy medzi asociatívnou vrstvou a výstupným neurónom, kde neurón "j" je v asociatívnej vrstve a na vstupe je "k-ty" prvok mno¾iny X, ${\bf x_{j}(t)}$ je stav "j"-teho neurónu a $\theta$ je prah. Výstup prechádza prahovaním v zmysle koneèného výstupu
\begin{displaymath}
ou(t)~=~\left\{ \matrix{
1 & ak~in(t)~\geq~0\cr
0 & ak~in(t)~<~0\cr } \right.
\end{displaymath} (2.13)

Je nutné poznamenať opätovne fakt, ¾e JPR bol navrhnutý za cieľom klasifikácie do dvoch tried CL1 a CL2. V prípade elementárneho PR je separujúca nadrovina daná rovnicou
\begin{displaymath}
\sum_{j=1}^{n} w_{j}(t)x_{j}(t)~-~\theta~=~0
\end{displaymath} (2.14)

Z praktického hľadiska oznaème vektor $ {\bf w}(t)~=~(w_{0}(t), w_{1}(t), w_{2}(t), \dots, w_{n}(t))$, vektor $ {\bf x}(t)~=~(x_{0}(t), x_{1}(t), x_{2}(t), \dots, x_{n}(t))$ kde n je rozmer vektorov, teda poèet neurónov v asociatívnej vrstve. Je potrebné poznamenať, ¾e stále je

\begin{displaymath}w_{0}(t)~=~\theta\end{displaymath}

a

\begin{displaymath}x_{0}(t)~=~-1.\end{displaymath}

Taktie¾ v matematických operáciách budeme pre prehľadnosť vynechávať oznaèenie transponovania. Teda na vstup do JPR ponúkame vstupy ${\bf x}(t)$ a k nemu kore¹pondujúce výstupy na výstup JPR ${\bf ev}(t)$. To v¹etko realizujeme opakovane po určitý konečný počet krokov.

previous next up
CIG Homepage(E-mail us!)