V prípade JPR sme predpokladali, ¾e na vstup budú
vstupovať príznaky objektov, ktoré sú v príznakovom priestore lineárne separovateľné. V prípade, že
táto podmienka nie je splnená, JPR je nie schopný
spoľahlivo realizovať svoju dichotomickú
klasifikáciu. Príkladom nelineárne separovateľnej
funkcie je funkcia XOR. Klasickým JPR nevieme zabezpeèiť separáciu výsledkov tejto funkcie v ¾iadnom prípade, čo je zrejme z obr. 2.9.
Je potrebné poznamenať, ¾e stále uva¾ujeme o
jednoduchej aktivaènej funkcii napr. typu signum.
V prípade iných aktivaèných funkcii by sme vedeli
XOR problém rie¹iť. Cieľom je v¹ak to, aby
sme vedeli aj pri jednoduch¹ích funkciách rie¹iť
klasifikaèné úlohy.
Východiskom
je práve zavedenie skrytej vrstvy, ktorá pomô¾e tento
problém rie¹iť. Zapojenie tejto skrytej vrstvy
znamená použitie viacnásobnej lineárnej separácie (na výstup prvej vrstvy je znovu použitá lineárna separácia)
, kde je mo¾né u¾ tieto
objekty lineárne odseparovať. Teda objekty, ktoré v 2-rozmernom
priestore nie sú lineárne separovateľné sa dajú
separovať zavedením ďalšej vrstvy neurónov. Na
obrázku sú znázornené 2 rôzne topológie NN, ktoré vedia rie¹iť XOR-problém. Je potrebné si uvedomiť, ¾e
tu ide o aproximáciu binárnej funkcie uvedenej v tabuľke
a grafe.
Tabuľka 2.1:
XOR binárna funkcia
výstup
0
0
0
0
1
1
1
0
1
1
1
0
Obrázok 2.9:
Grafické znazornenie funkcie XOR
Obrázok 2.10:
Dve mo¾né rie¹enia funkcie XOR pomocou skrytej vrtsvy
2.4.5.1 Poznámka:
Záverom tejto celej kapitoly je potrebné upozorniť na terminologickú
zameniteľnosť medzi metódou uèenia JPR a topológiou typu perceptrón.
Siete s rovnakou topológiou môžu mať rôzne algoritmy učenia.
Napr. Adaline a JPR majú rovnakú topológiu, ale odli¹nú metódu uèenia ako aj
celkové zameranie NN. Pod topológiou perceptrón rozumieme FF NN resp.
pod viacvrstvovým perceptrónom viacvrstvové FF NN. Teda na
topológii typu perceptrón mô¾e byť relizované principiálne
kontrolované uèenie rôzneho druhu.