Emergent

Ziel dieses Projekts war es, Benutzer dabei zu unterstützen, Szenen zu verstehen, z. B. ein Fernüberwachungs- und Fernwartungs-Szenario für moderne Fabrikumgebungen. Ein solches Szenario beinhaltet große Mengen von Daten in unterschiedlichen Formaten und von verschiedenen Sensoren. Diese Daten müssen analysiert werden, um das Verhalten der physischen Welt angemessen überwachen zu können. Überdies reichen die Sensordaten nicht aus, um das komplette Szenario zu verstehen. Um die Verbindung zwischen den Daten und der tatsächlichen Szene in der Fabrik herzustellen, führten wir einen browserbasierten Ansatz für Multi-Reality-Schnittstellen ein. Unser Ansatz kombiniert verschiedene Visualisierungen, indem die tatsächliche Szene anhand zweier Darstellungen gezeigt wird: stereoskopisches Video und 3D-Computergrafik (CG). Darüber hinaus wird die CG-Darstellung mit Daten angereichert, die aus der Szene extrahiert werden (z. B. Sensordaten aus einer Maschine). Mit Funktionen zur reichhaltigen Visualisierung (stereoskopisches Video und 3D-Grafik) bieten Multi-Reality-Schnittstellen die Möglichkeit, die große Vielfalt an Informationen zu vereinen und zu strukturieren, um solch komplexe Szenarien analysieren zu können [INCOM 2012]. Mit Implementierung dieser Funktionalität in einem Browser ist es nicht mehr notwendig, zusätzliche Software zu installieren, sodass sich die Funktionen gut in bestehende Konfigurationen von Kontrollzentren integrieren lassen. Damit steht ein modernes (nicht)industrielles Human-Machine-Interface (HMI) zur Verfügung.

Projektteam

Principal Investigator

Prof. Dr.-Ing. Thorsten Herfet