Page 1Page 1 CopyGroupGroupPage 1Combined ShapePage 1Combined ShapePage 1Triangle Page 1 VNVorarlberger Nachrichten Page 1Page 1Page 1Page 1Page 1Page 1Page 1Page 1Page 1Page 1Page 1 Rectangle 9 Combined ShapeCombined ShapePage 1Page 1Page 1Page 1Page 1AAAAPage 1 Page 1Page 1Page 1Page 1Page 1Page 1Page 1Page 1Page 1Page 1Page 1Page 1Page 1

Display per Auge steuern

Computerforscher haben ein System vorgestellt, das die Bedienung von Displays durch Augenbewegungen ermöglicht. Eine Infrarotkamera verfolgt die Augenbewegungen eines Menschen.

Das am Fraunhofer-Institut für Arbeitswirtschaft und Organisation in Kooperation mit Industriepartnern entwickelte EYCIN (“Eye-Controlled Interaction”) verknüpft etablierte Erkennungstechnologien mit einer speziell entworfenen Bedienoberfläche. Eine Infrarotkamera verfolgt die Augenbewegungen eines Menschen und überträgt diese auf die Mauszeiger-Koordinaten auf dem Bildschirm. Die neue Technik soll neben dem Home-Entertainment-Bereich zukünftig in der Industrie für Wartungsarbeiten eingesetzt werden.

“Die Entwicklung einer funktionstüchtigen Oberfläche zählt sicherlich zu den wichtigsten Aufgabenstellungen innerhalb eines derartigen Projekts”, erklärt Projektleiter Fabian Hermann im Gespräch mit pressetext. Da sich die Maus per Auge nicht so präzise wie mit der Hand steuern lasse, dürfe diese nicht zu kleinteilig ausfallen, so Hermann weiter. Als besondere Herausforderung der visuellen Steuerung gilt dabei das zielsichere Anklicken gewünschter Buttons und Menüpunkte. Die Forscher haben dafür sensitive Bereiche entwickelt, die durch längeres Anschauen aktiv werden. Der Button ändert dabei zweimal seine Farbe ehe es schließlich “Klick” macht – ein wichtiges Feedback für den Nutzer, der so erkennen kann, ob der Computer seine Befehle richtig versteht.

Als weiteres Problem gelten die winzigen Zitterbewegungen, sogenannte Mikrosakkaden, die das Auge permanent ausführt. Werden die Pupillenbewegung ungefiltert auf den Bildschirm übertragen, bewegt sich der Zeiger in unkontrollierten Bahnen über den Monitor. Die Software muss daher über eine Filterfunktion diese Mikrosakkaden ausfiltern und die Hauptbewegungsrichtung des Auges ermitteln. Hermann zufolge soll die Kamera bis zu einem Meter vom Auge des Betrachters entfernt in der Lage sein, dessen Pupillenbewegungen aufzuzeichnen und auszuwerten. Zur Berechnung gleicht die Software die Koordinaten der Pupille mit einem unsichtbaren statischen Infrarot-Lichtpunkt ab und überträgt diese auf den Zeiger am Bildschirm.

Eingesetzt soll EYCIN werden, um Technikern die Montage oder Wartung von Anlagen zu erleichtern. Während ein Werker Bauteile in den Händen hält, klickt er sich gleichzeitig per Augenbewegung durch das Wartungsmenü. Auch Querschnittsgelähmte könnten für ihre Arbeit am PC zukünftig von der Technologie profitieren.

home button iconCreated with Sketch. zurück zur Startseite
  • VOL.AT
  • Technik News
  • Display per Auge steuern
  • Kommentare
    Kommentare
    Grund der Meldung
    • Werbung
    • Verstoß gegen Nutzungsbedingungen
    • Persönliche Daten veröffentlicht
    Noch 1000 Zeichen