Also, wie erkennt man aktivitäten von einem benutzer? Mit sensoren. Wir benutzen sensoren die am körper oder in der kleidung integriert sind. Es gibt verschiedene sensoren die uns helfen aktivitäten zu erkennen. Zb aktivität bedeuted/impliziert bewegung. Wir können dann ein bewegungsensor benutzen Vielleicht einige von ihnen haben ein Mobiltelefon mit bewegungsensoren drin. Das gibt schon. <demo bewegung sensors> wenn ich winke ihr könnt sehen das das signal sieht typisher aus. Aktivitäten implizieren auch oftmals typische gerausche. Bohrer. Deshalb ein mikrofon kann auch input fur aktivitäterkennung geben Jetzt das ziel ist mit ein Sensor die typische bewegung oder geräusche von eine aktivität zu erkennen. Das geht in zwei schritte. Erstens wir finden wie eine aktivität sieht aus wenn man die sensordaten schaut. Wir finden den Sensordatenmuster. Z.B. hier zwei aktivitäten mit einem bewegungsensors Zweitens wir müssen die Muster in die sensordaten finden. Jetzt kenne ich die Muster. Ich lese viel daten aus die sensoren. Das könnte so aussihen. Die frage ist jetzt ob ich eine von die aktivität gemacht habe. Wie macht man das? Wir vergleichen das muster mit die sensordaten. Und wir sehen das hier das muster und die sensordaten sind sehr ähnlich. Das bedeutet that wir haben gefunden das der benutzer hat aus einem glass getrinkt hier. Wir machen dasselbe mit die andere Muster. Und hir wir finden eine zweite aktivität.
On the following slides we will have a closer look at the activity spotting method. First we’ll walk through the processing chain to get an overview. The on-body sensors in the Motion Jacket deliver orientation data for the body limbs. From this data body trajectories are computed in Cartesian space. These trajectories are encoded in a discrete string representation. Strings are input to the spotting operation that uses string matching techniques. Activity-specific template strings are matched with the continuous motion string from the sensors. This is done in parallel for each activity class and trajectory. Retrieved segments of the SAME class from DIFFERENT trajectories are fused using a temporal overlap detection scheme.
The string matching operation is based on the approximate string matching algorithm. Its basis is the Levensthein or edit distance. This distance comprises three symbol level operations that allow to compare two strings and express their distance using a scalar. A key modification of the standard algorithm allows to find template occurrences at arbitrary positions within in the motion string. (Approach requires one template string per activity class)
This is an example of the matching operation with two activity class templates. For each incoming symbol in the motion string, the approximate string matching algorithm is executed to compute the current matching cost value. This is done for both template strings. Template String 1 as example: one substitution and one deletion operation on symbol level determine the costs at t0: r+d
This plot shows the matching costs over time for one template string which corresponds to a dedicated activity class. Minima in the time series of costs that fall below a trained spotting threshold k are inferred as END-POINTS of activity occurrences. The START-POINTS are found by tracing back the cost time series to an suitable previous maximum. The retrieved segment is implicitly tied to the activity class whose template string was used during matching.