Achtung:

Sie haben Javascript deaktiviert!
Sie haben versucht eine Funktion zu nutzen, die nur mit Javascript möglich ist. Um sämtliche Funktionalitäten unserer Internetseite zu nutzen, aktivieren Sie bitte Javascript in Ihrem Browser.

Statistische Lernverfahren und Mustererkennung

Beispiel für ein zweischichtiges, voll verknüpftes neuronales Netz

Kurzbeschreibung

Die Veranstaltung Statistische Lernverfahren und Mustererkennung vermittelt einen Einblick in die Komponenten und Algorithmen von statischen Mustererkennungssystemen. Es werden parametrische und nichtparametrische Ansätze vorgestellt,  wie Charakteristika aus Daten entweder überwacht oder unüberwacht gelernt werden können und wie unbekannte Muster erkannt werden. Die vorgestellten Techniken können auf vielfältige Mustererkennungsprobleme angewendet werden, sei es für eindimensionale Signale (z.B. Sprache), zweidimensionale (z.B. Bilder) oder symbolische Daten (z.B. Texte, Dokumente).

Vorlesungsinhalte

  • Entscheidungsregeln: Bayes'sche Entscheidungsregel, Diskriminanten und Grenzflächen, Diskriminanten für multivariate Gaußverteilungen, Fehlerrate des Bayes-Klassifikators, Beispiel: Soft-feature Spracherkennung
  • Überwachtes Lernen: Mittelwert und Varianz einer Gaußverteilung, Bayes'sches Lernen
  • Lineare Dimensionsreduktion: Hauptachsentransformation, Lineare Diskriminanznanalyse
  • Lineare Diskriminanten: Least squares und LDA, LMS, Support Vector Machines, Beispiel: MLLR Sprecheradaption
  • Multilayer Perceptron: Klassifikation mittels neuronaler Netzwerke, Training neuronaler Netzwerke
  • Unüberwachtes Lernen: Mischungsverteilungen, Clusterverfahren

Lernergebnisse & Fachliche Kompetenzen

Die Studierenden sind nach dem Besuch der Lehrveranstaltung in der Lage,

  • für ein vorgegebenes Mustererkennungsproblem eine geeignete Entscheidungsregel auszuwählen
  • Methoden des überwachten und unüberwachten Lernens auf neue Problemstellungen anzuwenden und die Ergebnisse des Lernens kritisch zu bewerten
  • parametrische und nichtparametrische Dichteschätzverfahren für unterschiedlichste Eingangsdaten zu entwickeln
  • Können Programmbibliotheken zur Realisierung von Klassifikatoren (z.B. neuronale Netze, Support Vector Machines) sinnvoll anwenden
  • für eine vorgegebene Trainingsdatenmenge einen sinnvolle Wahl für die Dimension des Merkmalsvektors und die Komplexität des Klassifikators zu treffen.

Die Studierenden

  • haben weitreichende Fertigkeiten in Matlab erworben, die sie auch außerhalb der Realisierung von Klassifikationsverfahren einsetzen können
  • haben ein Verständnis für das Prinzip der Parsimomität und können es auf andere Fragestellungen übertragen
  • können die in diesem Kurse gewonnenen Kenntnisse und Fertigkeiten auf andere Disziplinen übertragen
  • können in einer Gruppe umfangreichere Aufgabenstellungen gemeinsam analysieren, in Teilaufgaben zerlegen und lösungsorientiert bearbeiten

Methodische Umsetzung

  • Vorlesungen mit überwiegendem Tafeleinsatz, vereinzelt Folien-Präsentation
  • Präsenzübungen mit Übungsblättern und Demonstrationen am Rechner
  • praktische Übungen mit Matlab, in denen Studierende eigenständig Trainings- und Testdaten generieren, Lösungswege erarbeiten und Lernverfahren oder Klassifikatoren implementieren, testen, sowie Ergebnisse auswerten.

Literaturempfehlungen

  • R.O. Duda, P.E. Hart und D.G. Stork: "Pattern Classification", 2nd Edition,Wiley, 2000
  • K. Fukunaga, Statistical Pattern Recognition, Academic Press, 1990
  • Hastie, Tibshirani, The Elements of Statistical Learning, Springer 2003
  • McLachlan G.J., Discriminant analysis and statistical pattern recognition, John Wiley&sons, 1992
  • Radford M., Bayesian Learning for Neural Networks, Springer 1996
  • Schürmann J., Pattern classification,a unified view of statistical...,John Wiley & sons, 1996
  • Vapnik, The Nature of Statistical Learning Theory, Springer-Verlag 2000
  • Vapnik, Statistical Learning Theory, John Wiley 1998
  • Vidyasagar M., Learning and Generalization, Springer 2003

Einordnung

  • Veranstaltung für Master-Studierende
  • ECTS: 6
  • Sprache: Deutsch oder Englisch
  • Semester: Sommersemester

Die Universität der Informationsgesellschaft