Neurális hálózatok

This document was uploaded by one of our users. The uploader already confirmed that they had the permission to publish it. If you are author/publisher or own the copyright of this documents, please report to us by using this DMCA report form.

Simply click on the Download Book button.

Yes, Book downloads on Ebookily are 100% Free.

Sometimes the book is free on Amazon As well, so go ahead and hit "Search on Amazon"

Author(s): Fazekas István
Publisher: Debreceni Egyetem
Year: 2013

Language: Hungarian
Pages: 204

Előszó......Page 7
1. Bevezetés......Page 9
2.1. A neuron sémája......Page 15
2.2. Aktivációs függvények......Page 18
2.3. A perceptron tanítása......Page 21
2.4. A perceptron algoritmusának egy változata......Page 25
2.6. Lineáris regresszió......Page 28
2.7. Feladatok......Page 30
3.1. A többrétegű perceptron felépítése......Page 31
3.2. A többrétegű perceptron tanítása......Page 33
3.3. A back-propagation eljárás variánsai és tulajdonságai......Page 37
3.3.1. Az aktivációs függvény deriváltjáról......Page 38
3.3.3. Soros és kötegelt tanítás......Page 39
3.3.5. Osztályozás több halmaz esetén......Page 40
3.3.7. Általánosítás......Page 41
3.3.8. A konjugált gradiens módszer......Page 42
3.3.10. A Levenberg–Marquardt-eljárás......Page 44
3.4.1. Regularizáció......Page 46
3.4.2. A Hesse-mátrixon alapuló metszés......Page 47
3.5. Numerikus példák......Page 51
3.6. Feladatok......Page 57
4.1. A szeparálás Cover-féle elmélete......Page 59
4.2. Interpoláció radiális bázis függvényekkel......Page 63
4.3. A Tyihonov-féle regularizáció......Page 66
4.3.1. A regularizációs hálózat......Page 74
4.4. Az általánosított RBF hálózat......Page 75
4.4.1. A regularizációs paraméter meghatározása......Page 78
4.4.2. Tanítási stratégiák......Page 81
4.5.1. A sűrűségfüggvény magfüggvényes becslése......Page 84
4.5.2. A regressziós függvény magfüggvényes becslése......Page 85
4.6. Numerikus példák......Page 86
4.7. Feladatok......Page 90
5.1. A tartó vektor gépek kialakulása......Page 93
5.2.1. Az optimális hipersík a lineárisan szeparálható esetben......Page 94
5.2.2. Az optimális hipersík a nem szeparálható esetben......Page 101
5.2.3. Az SVM használata nem-lineáris szeparálásra......Page 106
5.2.4. Az SVM tanítása......Page 110
5.3.1. Veszteségfüggvények......Page 115
5.3.2. A lineáris regresszió......Page 116
5.3.3. Nem-lineáris függvények közelítése......Page 119
5.4. Numerikus példák......Page 123
5.5. Feladatok......Page 131
6.1.1. Vektorok és mátrixok......Page 135
6.1.2. Differenciálszámítás......Page 136
6.2. Mátrixok általánosított inverze és kvadratikus formák minimuma......Page 138
6.3.1. A gradiens módszer......Page 145
6.3.2. A Newton-módszer......Page 148
6.3.3. Kvázi Newton-módszerek......Page 150
6.3.4. Levenberg–Marquardt-módszerek......Page 154
6.3.5. A lineáris modell......Page 157
6.3.6. A Gauss–Newton-módszer......Page 158
6.3.7. Lineáris legkisebb négyzetes módszer......Page 160
6.3.8. A Least-Mean-Square (LMS) módszer......Page 161
6.3.9. A konjugált gradiens módszer......Page 162
6.4. Feltételes szélsőérték problémák......Page 168
6.5. Feladatok......Page 171
2.7. Feladatok megoldása......Page 173
3.6. Feladatok megoldása......Page 175
4.7. Feladatok megoldása......Page 178
5.5. Feladatok megoldása......Page 183
6.5. Feladatok megoldása......Page 192
Irodalomjegyzék......Page 195
Tárgymutató......Page 201