Interaktiver Spiegel

Die Kollegen von Stereolize haben ja immer wieder total abgefahrene Ideen wie man Produkte und Unternehmen präsentieren kann. In der Regel sind die Ideen nicht nur höchst innovativ, sondern auch recht komplex in der Umsetzung.

Spiegeldisplays gibt es schon in verschiedensten Varianten. Interaktive Spiegeldisplays auch. Aber gesteuert per Gesten und dem eigenen Körper inkl. Geschlechtserkennung, Alterserkennung und Gemütszustandserkennung, da wird der Markt schon eher sehr überschaubar. Defacto gibt es da nichts am freien Markt zu kaufen (Stand als wir mir dem Projekt begonnen haben).

Spiegel und Display waren schnell besorgt. Als Kamera entschied am Ende die Kinect das Rennen für sich. Mein Favorit wäre eigentlich die Intel Perceputal Cam gewesen, aber aufgrund des Erfassungsbereiches wurde dann die Kamera aus Redmond zum Sieger gekürt.

Am Ende des Tages musste die Steuerung für den Spiegel drei Aufgaben erledigen:

  1. Sie musste potentielle User in einem Nahbereich beobachten und entscheiden welche Person angesprochen werden soll
  2. Sie musste den jeweiligen User aus dem Livevideo extrahieren und das Bild dann Ventuz für diverse Aktionen bereitstellen
  3. Sie musste das freigestellte Userbild bearbeiten damit die Parameter wie Alter, Geschlecht und Gemütszustand ermittelt werden konnten

 

Eines muss man Microsoft lassen, mit der Kinect haben sie wirklich ein wunderbares Stück Hardware inkl. Software gebaut. In relativ kurzer Zeit konnten wir mit dem Kinect SDK alle unsere Anforderungen umsetzen.

Die in C# erstellte Software scannt einen definierten Bereich nach möglichen Usern. Sind mehrere Personen in diesem Nahbereich, dann entscheidet die Software selbständig welche Person angesprochen werden soll. Dabei spielen Parameter wie Entfernung zum Spiegel, Blickrichtung und Kopfposition eine wichtige Rolle. Begibt sich eine Person in den Interaktionsbereich, dann sendet die Software eine Unmenge an Parametern und Werten an Ventuz. Unter anderem die Position der Person, Größe, die einzelnen Joints, usw.

Während die Person von der Ventuz Anwendung begrüßt wird, ermittelt die Trackingsoftware das Alter (+/-), das Geschlecht und die Laune (Happy, Sad, Angry, Surprised) und übermittelt die Werte ebenfalls an Ventuz. Der Gemütszustand wird dann ca. 12 mal pro Sekunde upgedated. Somit kann man prima feststellen wie die jeweilige Person auf die Präsentation reagiert.

Habe in dem Projekt wieder viel neues gelernt. Und obwohl das Kinect SDK wirklich kaum einen Wunsch offen lässt, so hat sich gerade der Teil, wann eine Person zu Tracken ist und wann nicht, als besonders Komplex herausgestellt. Vor allem bei Gruppen von Personen die EINE herauszufinden, war mit vielen zurückgelegten Kilometern zwischen Spiegel und Arbeitsrechner verbunden.

Anbei noch ein paar Impressionen wie das ganze während der Entwicklung ausgesehen hat.

Posted on 20. März 2015 in Blog, Ventuz

Share the Story

Back to Top