Tanuló rendszerek: időbeosztás és jegyzetek

1. hét

Bevezetés, a tárgy témaköre, felépítése, követelményrendszere. (Plusz: önálló labor témák ismertetése.)

Az elemi neuron. Perceptron felépítése, tanítása. A Perceptron tanulás konvergenciája. Adaline. Felépítés, analitikus megoldás: Wiener-Hopf egyenlet. (Könyv 3.). Szigmoidos neuron és tanítása: a delta szabály. Többrétegű perceptron felépítése, tanítása. A hibavisszaterjesztéses (BP) algoritmus.

Az MLP tulajdonságai és konstrukciójának kérdései.

Irodalom: Neurális hálózatok könyv 3. és 4. fejezet

Érdekes linkek: http://www.forbes.com/sites/anthonykosner/2013/12/29/why-is-machine-learning-cs-229-the-most-popular-course-at-stanford/     http://www.stanford.edu/group/brainsinsilicon/index.html   ;     https://class.coursera.org/ml-003/lecture

2. hét

Az MLP konstrukciójának kérdései (folytatás).

Irodalom: Neurális hálózatok könyv 4. fejezet.

3. hét

Bázisfüggvényes hálók, RBF konstrukciója (rejtett réteg mérete, bázisfüggvények paraméterei). A nemlineáris transzformáció szerepe, szükségessége. RBF tanítása: analitikus megoldás (mátrix inverz, illetve pszeudo inverz), iteratív megoldás.

Irodalom: Neurális hálózatok könyv 5. fejezet az 5.2 kivételével. Az 5.2 témaköre háttérismerete, nem vizsgaanyag.

Első MATLAB gyakorlat: alap Matlab ismeretek, Neural network toolbox, MLP konstrukciója

4. hét

RBF folytatás: bázisfüggvéynek helyének és számának meghatározása OLS eljárással. MLP-RBF összehasonlítás.

Irodalom: Neurális hálózatok könyv 5. fejezet az 5.2 kivételével. Az 5.2 témaköre háttérismerete, nem vizsgaanyag.

Kernel gépek. Kernel reprezentáció. Szupport vektor gépek (SVM) lineáris osztályozásra, gyengítés, nemlineáris kiterjesztés.

Irodalom: Neurális hálózatok könyv 6. fejezet az 6.3.4-ig.

5. hét

Kernel gépek folytatás. Szupport vektor gépek (SVM) nemlineáris regressziós feladatra, gyengítéssel. A statisztikus tanuláselmélet alapjai. ERM elv, SRM megközelítés. VC dimenzió fogalma. Az általánosítóképesség felső korlátja.

Irodalom: Neurális hálózatok könyv 6. fejezet az 6.3.4, 6.6  részek. és a 2.3 részből a fő gondolat.

6. hét

Alkalmazások: karakterfelismerés, auto navigálás Nemlineáris dinamikus feladatok, dinamikus neuronhálók. Modellosztályok

Modellfokszámbecslés, Lipschitz index. Dinamikus modellek tanítása. Időbeli kiterítés, temporális BP (csak az alapelv),

Irodalom: Neurális hálózatok könyv 7. fejezet 7.2.-ig. 8. fejezet 8.4.2-ig.

7. hét

BPTT demo (auto tolatás). Visszacsatolt hálók és tanításuk BPTT, RTRL (csak az elve).

Nemellenőrzött tanulási eljárások. Mire szolgál, néhány alapfeladat. (sűrűségfv becslés, főkomponens analízis, rejtett dimenziók meghatározása, stb.)

Irodalom: Neurális hálózatok könyv 8.4, 8.4.1.  részek. A 10. fejezet bevezetése.

8.hét

Nemellenőrzött tanulás folytatása. Nemlineáris főkomponens analízis, KPCA.  Független komponens analízsi (ICA) alapfeladat.

3. Matlab gyakorlat. Idősor előrejelzés, dinamikus neuronhálók. PCA megvalósítások.

Irodalom: Neurális hálózatok könyv 10.3- 10.4 fejezetek.

© 2010-2024 BME MIT | Hibajelentés | Használati útmutató