Neuronale Netzwerke sind vereinfachte Modelle der Informationsverarbeitung im menschlichen Gehirn. Solche Systeme "lernen" ihre Aufgabe auf Grund von Beispielen und haben sich in verschiedenen Anwendungsbereichen (Muster- und Spracherkennung, Signalverarbeitung, Diagnose, Prognose, Optimierung, Regelung, etc.) als vielversprechende Alternative zu den traditionellen Lösungsansätzen erwiesen.
Die Vorlesung ist eine Einführung in die Methoden der Informationsverarbeitung mit neuronalen Netzwerken und vermittelt die wichtigsten Grundlagen für eine effiziente Anwendung dieser neuen Techniken.
Inhalt: Künstliche Neuronen und neuronale Netzwerke (Feedforward-Netzwerke, Hopfield-Netzwerke, Winner-take-all Netzwerke), Lernverfahren (Error-Backpropagation, stochastisches Lernen, Lernen mit einem Kritiker, kompetitives Lernen), Analyse und Optimierung der Lern- und Verallgemeinerungseigenschaften, Implementierungen, Diskussion von Anwendungsbeispielen.
Vortragender: Dr. Jakob Bernasconi
Assistent: Erk Subasi
Prüfungsrelevante Formeln & Konzepte.pdf
Zeit und Ort:
Vorlesung: Freitag 10 -12 IFW A36
Übungen: Freitag 12 -13 IFW A36
20. Februar 2009: | EINFÜHRUNG UND ÜBERSICHT - Das menschliche Gehirn - Künstliche Neuronen und neuronale Netzwerke - Informationsspeicherung, Lernfähigkeit - Wesentliche Eigenschaften - Anwendungsbeispiele |
Kapitel1.pdf
|
27. Februar 2009: | LERNEN AUS BEISPIELEN - Lernkonzepte, Lernstrategien - Konventionelle Lernverfahren - Lernen in neuronalen Netzwerken - Lernen und Verallgemeinern |
Kapitel2.pdf Übung1.pdf Musterlösung1.pdf |
6. März 2009: | HOPFIELD-NETZWERKE - Hopfield-Netzwerke und Spin Gläser - Hebb'sche Lernregel und Verallgemeinerungen - Assoziative Mustererkennung, Kapazität - Hopfield-Tank Netzwerke zur Lösung von Optimierungsproblemen |
Kapitel3.pdf Übung2.pdf Musterlösung2.pdf |
13. März 2009: | KOMPETITIVES LERNEN - "Winner-Take-All" Netzwerke - Einfache kompetitive Lernregeln, Varianten - "Learning Vector Quantization" - Topologieerhaltende Abbildungen (Kohonen Netzwerke) |
Kapitel4.pdf |
20. März 2009: | PERCEPTRONS I - Klassifizierungsvermögen, Kapazität - Das Perceptron-Lernverfahren - Erweiterung des Inputraums |
Kapitel5.pdf Übung3.pdf hypdat_2009.txt Musterlösung3.pdf |
27. März 2009: | PERCEPTRONS II - Maximale Stabilität, "Support Vector Classifiers" - Lernen durch Fehlerminimierung - Gradienten-Lernverfahren |
|
3. April 2009: | MULTILAYER PERCEPTRONS - Hidden Units - Lernvermögen - Lernen durch Fehlerminimierung - Der Backpropagation - Lernalgorithmus - Varianten, Verallgemeinerungen |
Kapitel6.pdf Übung4.pdf Neurosim.zip Musterlösung4.pdf |
10. April 2009: |
keine Vorlesung (Osterferien)! |
|
17. April 2009: |
keine Vorlesung (Osterferien)! |
|
24. April 2009: | LERNEN MIT EINEM KRITIKER
- Optimierung einer Bewertungsfunktion - "Neurocontrol" - Stochastische Neuronen - Reinforcement Learning / ARP-Lernverfahren |
Kapitel7.pdf
Kapitel7-A.pdf
Übung5.pdf Musterlösung5.pdf |
1. Mai 2009: |
keine Vorlesung (unterrichtsfrei)! |
|
8. Mai 2009: |
LERNEN UND OPTIMIEREN |
Kapitel8.pdf Übung6.pdf Musterlösung6.pdf |
15. Mai 2009: | OPTIMALES LERNEN UND VERALLGEMEINERN I
- Darstellung der Eingangs- und Ausgangsdaten - Wahl der Netzwerk- und Lernparameter - Vorverarbeitungs-Techniken, "Pruning" und " Weight Decay" - Präsentation der Lernbeispiele - "Stopped Training", Crossvalidation |
Kapitel9.pdf |
22. Mai 2009: | OPTIMALES LERNEN UND VERALLGEMEINERN II
- Kombinationen von neuronalen Netzwerken - "Boosting"-Algorithmen - Active Learning |
Kapitel10.pdf |
29. Mai 2009: | DISKUSSION VON ANWENDUNGSBEISPIELEN
- Fallstudien zum praktischen Einsatz von neuronalen Netzwerken - Zusammenfassung der wichtigsten Konzepte - Diskussion von früheren Prüfungsaufgaben |
Kapitel11.pdf Prüfungsaufgaben Herbst 2001.pdf Prüfungsaufgaben Herbst 2003.pdf Prüfungsaufgaben Herbst 2008.pdf |