Thematische Forschungsschwerpunkte

Kontinuierliche Spracherkennung/Emotionserkennung, Akustik und intelligentes Dialogmanagement

  • SIRI, Alexa und Co.: Spracherkennung unter natürlichen Bedingungen
  • Signale in realen Umgebungen: Rauschunterdrückung, Quellentrennung/-lokalisierung, Beamforming, Qualitätserhaltung bei Kompressionen (mpg, ...)
  • Dialoge mit Machinen: Intelligente Dialogführungsstrategien unter Ausnutzung prosodischer Sprachmerkmale und Dialoghistorien
  • Emotionen und Nutzerzustände: Emotionserkennung aus Sprache und anderen Nutzermerkmalen, Nutzung für bessere Dialoge
  • Mehrere Nutzer: Situations- / Umgebungsmodellierung, Sprecheridentifikation

Big and Small Data, Deep Architectures

  • Viele Informationen? --> Informationsfusion mit maschinellem Lernen
  • Überwachtes und Semi-überwachtes Lernen
  • Keine Daten für Ihre Domäne? --> Translationales Lernen, Adaptionsarchitekturen, Synthetische Daten
  • Zu viele Daten? --> modal gesteuerte und semi-überwachte Annotationen
  • Zeitabhängigkeit auffinden mit rekurrenten (tiefen) Neuronalen Netzen
  • Biologische Dynamische Künstliche Neuronale Netze

Mobile Systeme, sichere Autos, Labviews und Raspberries, Robotersteuerungen, smarte Companions

  • Ambient Assisted Living: Assistenz im häuslichen Bereich mit multimodalen Sensoren
  • Labview-Plattform für Robotersteuerungen (mit Sprache): Industriestandard von National Instruments
  • Small footprints: Dialogsteuerungen für mobile Anwendungen mit Raspberry Pi
  • Nutzerzustände und Emotionen erkennen --> sicheres Fahren durch angepasste Assistenz im Auto
  • Smart - everywhere: Assistenzsysteme als Companions
  • Nutzerabsichten erkennen, proaktives Systemhandeln: Intentionale Antizipatorische Interaktive Systeme

Letzte Änderung: 13.04.2018 - Ansprechpartner: Andreas Wendemuth