Tanuló rendszerek: időbeosztás és jegyzetek
1. hét
Bevezetés, a tárgy témaköre, felépítése, követelményrendszere. (Plusz: önálló labor témák ismertetése.)
Az elemi neuron. Perceptron felépítése, tanítása. A Perceptron tanulás konvergenciája. Adaline. Felépítés, analitikus megoldás: Wiener-Hopf egyenlet. (Könyv 3.). Szigmoidos neuron és tanítása: a delta szabály. Többrétegű perceptron felépítése, tanítása. A hibavisszaterjesztéses (BP) algoritmus.
Az MLP tulajdonságai és konstrukciójának kérdései.
Irodalom: Neurális hálózatok könyv 3. és 4. fejezet
Érdekes linkek: http://www.forbes.com/sites/anthonykosner/2013/12/29/why-is-machine-learning-cs-229-the-most-popular-course-at-stanford/ http://www.stanford.edu/group/brainsinsilicon/index.html ; https://class.coursera.org/ml-003/lecture
2. hét
Az MLP konstrukciójának kérdései (folytatás).
Irodalom: Neurális hálózatok könyv 4. fejezet.
3. hét
Bázisfüggvényes hálók, RBF konstrukciója (rejtett réteg mérete, bázisfüggvények paraméterei). A nemlineáris transzformáció szerepe, szükségessége. RBF tanítása: analitikus megoldás (mátrix inverz, illetve pszeudo inverz), iteratív megoldás.
Irodalom: Neurális hálózatok könyv 5. fejezet az 5.2 kivételével. Az 5.2 témaköre háttérismerete, nem vizsgaanyag.
Első MATLAB gyakorlat: alap Matlab ismeretek, Neural network toolbox, MLP konstrukciója
4. hét
RBF folytatás: bázisfüggvéynek helyének és számának meghatározása OLS eljárással. MLP-RBF összehasonlítás.
Irodalom: Neurális hálózatok könyv 5. fejezet az 5.2 kivételével. Az 5.2 témaköre háttérismerete, nem vizsgaanyag.
Kernel gépek. Kernel reprezentáció. Szupport vektor gépek (SVM) lineáris osztályozásra, gyengítés, nemlineáris kiterjesztés.
Irodalom: Neurális hálózatok könyv 6. fejezet az 6.3.4-ig.
5. hét
Kernel gépek folytatás. Szupport vektor gépek (SVM) nemlineáris regressziós feladatra, gyengítéssel. A statisztikus tanuláselmélet alapjai. ERM elv, SRM megközelítés. VC dimenzió fogalma. Az általánosítóképesség felső korlátja.
Irodalom: Neurális hálózatok könyv 6. fejezet az 6.3.4, 6.6 részek. és a 2.3 részből a fő gondolat.
6. hét
Alkalmazások: karakterfelismerés, auto navigálás Nemlineáris dinamikus feladatok, dinamikus neuronhálók. Modellosztályok
Modellfokszámbecslés, Lipschitz index. Dinamikus modellek tanítása. Időbeli kiterítés, temporális BP (csak az alapelv),
Irodalom: Neurális hálózatok könyv 7. fejezet 7.2.-ig. 8. fejezet 8.4.2-ig.
7. hét
BPTT demo (auto tolatás). Visszacsatolt hálók és tanításuk BPTT, RTRL (csak az elve).
Nemellenőrzött tanulási eljárások. Mire szolgál, néhány alapfeladat. (sűrűségfv becslés, főkomponens analízis, rejtett dimenziók meghatározása, stb.)
Irodalom: Neurális hálózatok könyv 8.4, 8.4.1. részek. A 10. fejezet bevezetése.
8.hét
Nemellenőrzött tanulás folytatása. Nemlineáris főkomponens analízis, KPCA. Független komponens analízsi (ICA) alapfeladat.
3. Matlab gyakorlat. Idősor előrejelzés, dinamikus neuronhálók. PCA megvalósítások.
Irodalom: Neurális hálózatok könyv 10.3- 10.4 fejezetek.