Strukturbaum
Keine Einordnung ins Vorlesungsverzeichnis vorhanden. Veranstaltung ist aus dem Semester WS 2013/14 , Aktuelles Semester: SoSe 2024
  • Funktionen:
Angewandte Neuroinformatik    Sprache: Deutsch    Belegpflicht
Nr.:  6037     Vorlesung     WS 2013/14     4 SWS     Jedes Semester    
   Master-Studiengang: Masterstudiengang Informatik    
 
   Studiengang   Informatik, Abschluss 90,   ( 1. - 3. Semester ) - Kategorie : Wahlfach    
 
 
   Termin: Samstag   09:00  -  17:00    Einzelter.
Beginn : 19.10.2013    Ende : 19.10.2013
      Raum :   T 013   Gebäude T  
  Samstag   09:00  -  17:00    Einzelter.
Beginn : 09.11.2013    Ende : 09.11.2013
      Raum :   T 013   Gebäude T  
  Samstag   09:00  -  17:00    Einzelter.
Beginn : 23.11.2013    Ende : 23.11.2013
      Raum :   T 013   Gebäude T  
  Samstag   09:00  -  17:00    Einzelter.
Beginn : 22.02.2014    Ende : 22.02.2014
      Raum :   T 013   Gebäude T  
 
 
   Inhalt: Supervised Learning (SL):
- Multi-Layer Perzeptronen
- Backpropagation, Resilient Propagation
- Online- vs. Batch-Lernen

Unsupervised Learning (UL):
- Selbstorganisierende Karten

Reinforcement Learning (RL):
- Lernen durch bestärkte sensomotorische Interaktion
- Q-Learning, SARSA
- Exploration vs. Exploitation

Allgemein:
- Lesen, Verstehen und Diskutieren von wissenschaftlicher Literatur
- Neurobiologische Erkenntnisse über SL, RL und UL
- Kombination von SL, RL und UL
- Experimentieren mit Neuro-Toolboxen
- Entwicklung von intelligenten Agenten
 
   Literatur: N. J. van Eck and M. van Wezel. 2008. Application of reinforcement learning to the game of Othello. Comput. Oper. Res. 35, 6. 1999-2017.

W. Ertel: Grundkurs Künstliche Intelligenz: Eine praxisorientierte Einführung. Springer Verlag, 2009.

P. Ertle, M. Tokic, R. Cubek, H. Voos, and D. Söffker. Towards learning of safety knowledge from human demonstrations. In Proceedings of the IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS 2012), pages 5394-5399, Vilamoura, Algarve, Portugal, 2012. IEEE Press. (Nominated for the "New Technology Foundation Award for Entertainment Robots and Systems").

S. Faußer and F. Schwenker: Neural Approximation of Monte Carlo Policy Evaluation Deployed in Connect Four. In Proceedings of the 3rd International Workshop on Artificial Neural Networks in Pattern Recognition (ANNPR 2008). pp. 90 - 100, Springer, 2008.

F. Flentge: Aktionenlernen mit Selbstorganisierenden Karten und Reinforcement Learning, Dissertation, Universität Mainz, 2005.

T. Gabel, C. Lutz and M. Riedmiller. Improved Neural Fitted Q Iteration Applied to a Novel Computer Gaming and Learning Benchmark. In Proceedings of the IEEE Symposium on Approximate Dynamic Programming and Reinforcement Learning (ADPRL 2011). IEEE Press, Paris France, April 2011.

T. Kietzmann and M. Riedmiller. The Neuro Slot Car Racer: Reinforcement Learning in a Real World Setting. Proceedings of the Int. Conference on Machine Learning Applications (ICMLA09). Springer, Miami, Florida, Dec 2009.

M. Riedmiller and H. Braun. RPROP: A Fast Adaptive Learning Algorithm. International Symposium on Computer and Information Science VII. pp. 279 - 286, Antalya, Turkey, 1992.

S. Russell and P. Norvig: "Künstliche Ingelligenz: Ein moderner Ansatz" (3. Auflage). Pearson, 2012.

R. Sutton and A. Barto: Reinforcement Learning: An Introduction. MIT Press, 1998.

M. Tokic and G. Palm: Adaptive exploration using stochastic neurons. In Proceedings of the 22nd International Conference on Artificial Neural Networks (ICANN 2012), volume 7553 of Lecture Notes in Computer Science, pages 42-49. Springer Berlin / Heidelberg, 2012.

M. Tokic. Reinforcement Learning: Psychologische und neurobiologische Aspekte. Künstliche Intelligenz, 27(3):213-219, 2013.
 
   Lernziele: Das Forschungsgebiet der Neuroinformatik befasst sich mit der Informationsverarbeitung in neuronalen Systemen, und hat zum Ziel diese in technisch-kognitiven Systemen anzuwenden. Das Ziel dieser Lehrveranstaltung ist die Vermittlung von praktischen Fähigkeiten bzgl. der Implementierung neuronaler Lernparadigmen, wie “Supervised Learning”, “Unsupervised Learning” und “Reinforcement Learning”. Neben der Vermittlung von theoretischem Grundlagenwissen, wird mit diversen Neuro-Toolboxen (FANN, Encog, TeachingBox, KNIME) experimentiert, um praktische Erfahrungen über deren Einsatzmöglichkeiten zu erlangen. Ebenso wird ein Exkurs in die Neurobiologie und Psychologie geboten, um die Motivation der mathematischen Modelle zu veranschaulichen.

Im Rahmen einer benoteten Gruppenarbeit werden intelligente Agenten, z. B. für eine Spieleplattform (Tetris, Angry Birds, Torcs Car-Racing, Super Mario, Star Ships) oder ein anderweitiges Lernproblem, implementiert. Im Rahmen eines Abschluss-Workshops werden die Ergebnisse präsentiert und diskutiert.
 
   Voraussetzungen: Vorlesung "Künstliche Intelligenz" bei Prof. Ertel.