Computer Science
Home

Aktivitäts u. Kontexterkennung

Ein Workshop für SchülerInnen im Rahmen der TEC-Initiative

In diesem Workshop befassen wir uns mit dem Themengebiet Aktivitätserkennung. Wir beschäftigen uns damit, wie wir einem Computer beibringen können, Aktivitäten zu erkennen. Was für uns Menschen eine triviale Aufgabe darstellt, ist für Maschinen nur durch den Einsatz komplexer Algorithmen und Erkennungsarchitekturen möglich. Aktivitätserkennung spielt eine zentrale Rolle, um die Situation, bzw. den Kontext, in dem sich eine Person befindet, zu erkennen. Ist die Situation, in der sich eine Person befindet, bekannt, kann diese Information dazu verwendet werden, implizit, also ohne Zutun des jeweiligen Anwenders, auf die Situation zu reagieren. Köpergetragene Sensoren, wie sie heute schon häufig in modernen "Smart-Phones" oder "Smart-Watches" eingesetzt werden, können dazu genutzt werden, herauszufinden, welche Aktivität ihr Benutzer gerade ausführt. Bei vielen Aktivitäten ist es aber notwendig, das Zusammenspiel verschiedener Körperteile zu erfassen, um genau festzustellen, welche Aktivität gerade vom Benutzer ausgeführt wird. Dies wird anhand des sogenannten "MotionJackets", einer Sensorjacke mit 5 hoch genauen Sensoren zur Erkennung von Aktivitäten des täglichen Lebens wie z. B.: gehen, stehen, sitzen und liegen in Echtzeit mit einer Erkennungsrate bis zu 97% demonstriert.

Vortragsteil (ca.2h): Zu Beginn verschaffen wir uns einen Überblick über die grundlegenden Techniken und Methoden der Aktivitätserkennung. Aufbauend auf diesen Grundlagen werden wir Architekturen zur Aktivitätserkennung besprechen und darauf eingehen, wie diese in Software abgebildet werden können. Zum Abschluss sehen wir uns Implementierungen dieser Architekturen auf unterschiedlichen Geräten (z.B.: SmartPhone, SmartWatch, und „MotionJacket“) an und diskutieren die unterschiedlichen Erkennungsraten auf diesen Plattformen und deren Ursache.

Praktischer Teil (1h): Die TeilnehmerInnen haben die Möglichkeit, Implementierungen von Aktivitätsalgorithmen und Architekturen auf unterschiedlichen Sensorplattformen zu testen und damit zu experimentieren.

Voraussetzungen: Interesse an Sensorik, Aktivitätserkennung und "hands-on experience".

Dauer: ca. 3 Stunden

Teilnehmerzahl: 15 (bis max. 25)

Workshopleiter und Kontaktperson: Michael Matscheko, Institut für Pervasive Computing

Last modified on Friday, 28-Aug-2015 12:29:39 CEST