Archiv für die Kategorie „Experimentell“
iOS 7: Das iPhone mit Kopfbewegungen bedienen
Apple hat im neuen iPhone-Betriebssystem iOS 7 eine Funktion ergänzt, auf die ich hier kurz hinweisen will. Sie ermöglicht das bedienen des Telefons mit Kopfbewegungen, also ohne die Hände verwenden zu müssen. Gedacht ist die Funktion für Leute mit Behinderungen, spannend aber auch, da es eine kleine Errungenschaft in Sachen Gesten-Steuerung ist.
Zu finden ist diese alternative Bedienmöglichkeit am iPhone in den Einstellungen, unter „Allgemein“, „Bedienungshilfen“. Dann geht man auf „Schaltersteuerung“ und erstellt einen neuen Schalter, dem man die Quelle „Kamera“ gibt. Für die Kopfbewegung nach links und rechts können dann bestimmte Funktionen eingestellt werden. Um das ganze besser verstehen zu können, seht euch folgendes Video an, bzw. probiert es am besten selber aus, sofern ihr ein iPhone mit iOS 7 euer Eigen nennen dürft.
Wie ich finde funktioniert es wirklich nicht schlecht, das erste mal dass ich Steuerungs-Methoden mittels Kopfbewegungen auf einem Handy erlebe. Für den Computer gibt es diese ja schon: Head Tracking.
Ein weiterer Schritt in die Zukunft! 😉
Das Handy per Gedanken steuern
Einen interessanten Artikel mit der Überschrift „Handybedienung per Hirnsignal“ las ich im neuesten c’t. So haben Wissenschaftler der University of California in San Diego (UCSD) an dem Swartz Center for Computational Neuroscience eine Computer-Hirn-Schnittstelle geschaffen mit der Probanden auf einem Nokia N97 rein gedanklich Nummern anwählen konnten. Die 8000-mal verstärkten EEG-Signale, die von den Nutzern über ein Stirnband übertragen wurden verarbeitete eine eigens entwickelte Software für das Nokia-Handy. Genau wie bei Spracherkennungssoftware mussten die Testpersonen die Software zuerst trainieren: Sie bekamen die Ziffern in unterschiedlichen Bildwiederholfrequenzen vorgespielt (beispielsweise eine „eins“ mit 9 Hz, eine „zwei“ mit 9,25 Hz usw.), die unterschiedliche Reaktionen des Gehirns auf die Ziffern und verschiedenen Frequenzen speicherte dann die Software.
Nach erfolgreichem Training konnte das Wählen von Telefonnummern nun ausprobiert werden. Den Probanden wurde wiederum nacheinander jede Ziffer vorgespielt, der Computer registrierte nun, ob Ziffer/Bildwiederholrate-Kombination die gleichen Reaktionen auslöste wie beim Training. Um die Fehlerrate zu minimieren wurde die Eingabe der zehn Ziffern zweimal durchgeführt, dauerte deshalb auch nicht weniger als durchschnittlich 88,9 Sekunden. Sieben von zehn Probanden gelang es eine absolut fehlerfreie Eingabe zu machen, wobei die durchschnittliche Genauigkeit bei stolzen 95,9 % lag.
Die Wissenschaftler des UCSD-Instituts denken daran, die Schnittstelle für Patienten mit schweren Lähmungen oder auch als Kontrollorgan für die Konzentration bei Fahrern und Fluglotsen im Automobil oder Transportsektor nutzen zu können.
Die wissenschaftliche Publikation lässt sich unter sccn.ucsd.edu/~yute/publications/LNAI10.pdf nachlesen.
Anhand dieses Versuchs lässt sich erkennen, wie schwierig es ist Gehirnssignale in für den Computer verständliche Signale umzuwandeln. Im Gegensatz zur Augensteuerung oder Gesichtserkennung (beispielsweise integriert beim zukünftigen Windows 8-Betriebssystem), wo sich der Einsatz alternativer Eingabemethoden bereits im breiten Konsumentenbereich abzeichnet, ist eine Steuerung per Gedanken hingegen noch weit davon entfernt.
Die Entwicklung in diese Richtung bleiben aber weiterhin spannend.
Augensteuerung: Bald schon Wirklichkeit?
Ich habe schon einmal kurz etwas über Augensteuerung erwähnt, eine Technologie, die sich noch sehr im Entwicklungs- und Forschungsstadium befindet. Einen interessanten Hinweis hat nun auch der Benutzer jask im Spracherkennungsforum hinterlassen.
Den Computer (im Enduser-Bereich!) mit den Augen zu steuern, wäre ein großer Entwicklungsschritt. Ein solches System klingt wirklich nach einer interessanten Entwicklung: Man stelle sich vor, der Computer wüsste wohin man sieht… Diese Information könnte man gut nutzen, da sie auch die Interaktion mit dem Computer wesentlich beschleunigen würde.
Hier ein Video der Entwicklungsfirma Tobii Technology, die zusammen mit Levono einen Prototyp eines Laptops mit integrierter Augensteuerung entwickelt hat:
Ein Problem bleibt allerdings die fehlende Möglichkeit zum Ausführen des Mausklicks: Das gleiche Problem, das auch die Steuerung per Kopfbewegung nicht befriedigend lösen kann.
Mit Microsoft Kinect Windows 7 steuern
Microsofts Projekt Kinect, ehemals „Projekt Natal“, hatte ich nun lange unter Beobachtung, immer mit dem Gedanken, dass das System für eine alternative Computersteuerung gute Ansätze zeige. Wie derStandard.at nun berichtet, beobachtet Microsoft die Hacks rund um das System mit Spannung.
Auch für die Steuerung des Mauscursors ist es nun so weit, die ersten Versuche mit der Xbox 360-Erweiterung Kinect den ganz normalen Windows-Desktop zu steuern (die Maus zu steuern) sind erfolgreich:
Das Video stammt von Wolfgang Herfurtner, Chef der deutschen Firma Evoluce (spezialisiert auf Multi-Touch und Gestensteuerung), der in seinem Blog die neuesten Erfolge zeigt.
Ein Betriebssystem wie Windows 7 ist freilich auf feinere Eingabemethoden als diese (noch) grobe Gestensteuerung ausgelegt. Wie einige Kommentatoren meinen ist Kinect noch nicht sehr feinfühlig, Bewegungen mit dem ganzen Arm sind notwendig. Das mag sehr mühsam erscheinen, für Menschen mit Behinderungen ist das aber weniger relevant, außerdem sagt uns die Ergonomie, je mehr Bewegung desto besser.