Multimodaler Omnidirektionaler 3D-Sensor für die Verhaltensanalyse von Personen
Projektlaufzeit |
Finanzierung |
01.08.2016 bis 31.07.2019 | BMBF |
Projektleiter |
Projektbearbeiter |
Prof. Dr. rer. nat. Andreas Wendemuth (OvGU) | M.Sc. Juliane Höbel-Müller, Dr.-Ing. Ronald Böck |
Projektbeschreibung
Motivation und Zielstellung
Die Allianz 3Dsensation verleiht Maschinen durch innovative 3D-Technologien die Fähigkeit der visuellen Aufnahme und Interpretation komplexer Szenarien. Maschinen werden so zu situativ agierenden Partnern und personalisierten Assistenten des Menschen. Durch die neue Form der Mensch-Maschine-Interaktion schafft 3Dsensation den Zugang zu Lebens- und Arbeitswelten unabhängig von Alter und körperlicher Leistungsfähigkeit.
Motiviert durch den demographischen Wandel und den damit einhergehenden gesellschaftlichen Herausforderungen soll im Verbundvorhaben MOVA3D ein intelligenter Sensor zur häuslichen Assistenz, insbesondere älterer Menschen, entwickelt werden. Zur vollständigen Abdeckung eines Raumes mit einem einzigen Sensor wird ein neuartiges omnidirektionales optisches 3D-Messprinzip mit einer akustischen Raumerfassung zur multimodalen Informationsgewinnung kombiniert. Hochgenaue (3D-) Video- und Audiodaten sind die Voraussetzung für die anschließende Erkennung komplexer menschlicher Handlungen in Alltagssituationen und Interaktionen mit technischen Systemen, sowie der Identifizierung von relevanten Abweichungen. Diese automatische Analyse des Verhaltens betroffener Personen bildet die Grundlage für entsprechende Assistenzfunktionen sowie eine umfangreiche Interaktion über audio- und lichtbasierte Schnittstellen. Die umfassende Einbindung der späteren Nutzer in Form von Akzeptanz-, Funktions- und Nutzerstudien ist essentieller Teil des Projektes MOVA3D. Über die Integration in aktuelle Ambient-Assisted-Living- und Home-Automation-Systeme hinaus ist eine spätere bedarfsfeldübergreifende Anwendung denkbar und angestrebt.
Innerhalb des Projekts ist die OvGU verantwortlich für die Entwicklung einer Emotions- und Dispositionserkennung aus Sprache. Zusätzlich erfolgt die Klassifizierung akustischer Ereignisse in einer häuslichen Umgebung. Auf der Grundlage von audio- und videobasierten Informationen wird ein Nutzerverhaltensmodell entwickelt, um den mentalen und physischen Zustand einer Person abschätzen zu können.
Vorgehensweise
Die Basis für die Entwicklung bildet eine umfassende Anforderungsermittlung mithilfe einer Nutzerstudie, welche die Bedürfnisse der zukünftigen Anwender sowie deren Hintergründe erfasst. Während der Studie werden unter Einsatz von Befragungen konkrete Tagesabläufe der späteren Nutzer und ihre Verhaltensmuster in ihrem konkreten häuslichen Umfeld aufgenommen, analysiert sowie dokumentiert. Die Studie wird dabei unter Zuhilfenahme eines Mock-up durchgeführt, welches die spätere Funktionalität des Sensorsystems durch den Einsatz manuell bedienter Technik, Kamera, Lautsprecher etc. und dessen Erscheinungsbild (Design) möglichst realitätsnah simuliert und so die Reaktion und Verhaltensweise der späteren Nutzer repräsentativ wiedergibt.
Die Erkenntnisse aus dieser stichprobenartigen Analyse der späteren Anwender bzw. Nutzer und deren konkreten Kontexten werden in abstrahierte Nutzungsszenarien und Personas übertragen. Diese dienen als Grundlage für eine nutzerzentrierte und damit zielgruppengenaue Entwicklung, die eine spätere Akzeptanz des Sensorsystems beim Nutzer sicherstellt. Die Ergebnisse werden in Anforderungsdokumenten festgehalten.
In der letzten Phase des Vorhabens findet eine Validierung und Bewertung des multimodalen, omnidirektionalen Sensors hinsichtlich der Akzeptanz mit geeigneten Messinstrumenten statt. Die Ergebnisse geben Implikationen bezüglich eines eventuellen Re-Designs des Prototypen.
Beteiligte Partner
- Design:lab weimar GmbH
- TU Chemnitz
- OvGU Magdeburg
- Fraunhofer IIS
- Voice INTER connect GmbH
- Vitracom AG
- NSC GmbH
- Pattern Expert
- Verband Sächsischer Wohnungsgenossenschaften e.V.