Eine neue Bildverarbeitungssoftware findet sofort heraus, ob es sich bei den abgebildeten Personen um Männer oder Frauen handelt und wie ihre Stimmungslage ist. (Fraunhofer ILS)

Gesichtsfeinanalyse verrät Verbraucherverhalten

Von 5. August 2007 Aktualisiert: 5. August 2007 16:04

Künftig könnten Werbepsychologen noch einfacher an Daten zu den jeweiligen Vorlieben der Konsumenten kommen. Umfragen könnten durch einfache Analyse des Gesichtsausdruckes beispielsweise eines Passanten ersetzt werden. Dieser geht an einem Werbeplakat vorbei und eine Kamera zeichnet sekundenschnell dessen Reaktion auf das Gesehene auf. Sie erkennt also im Handumdrehen die augenblickliche Stimmung eines Menschen beim Betrachten des Plakates.

Science Fiktion? Zukunftsvision? Weit gefehlt. Am Fraunhofer-Institut für Integrierte Schaltungen ILS in Erlangen wurde bereits ein System für die schnelle Analyse von Gesichtern entwickelt, wobei hochkomplexe Algorithmen sofort jedes menschliche Gesicht in einem Gesamtbild herausfischen. Es wird die komplette Mimik festgehalten und zwischen männlichen und weiblichen Gesichtern unterschieden. „Das Besondere an unserer Gesichtsanalyse-Software ist, dass sie in Echtzeit arbeitet“, sagt Christian Küblbeck, Projektleiter am ILS. Außerdem kann sie gleichzeitig mehrere Gesichter anhand der Konturen von Gesicht, Augen, Brauen und Nase auswerten.

Zunächst musste das System eine Trainingsphase mit riesigen Datenmengen mit Bildern von Gesichtern durchlaufen. Im Einsatz vergleicht der Rechner dann bis zu 30.000 Merkmale im Gesicht mit den Informationen, die er bereits gespeichert hat. „Die Berechnung erfolgt mit jedem Standard-PC so schnell, dass der Gemütszustand live verfolgt werden kann“, so Küblbeck. Um die Privatsphäre müsse sich aber keiner Gedanken machen – das System wertet die Daten rein statistisch aus.

Interessant ist das Ganze aber nicht nur für Werbepsychologen, zahlreiche Anwendungen sind mit der Software denkbar. Sie eignet sich beispielsweise gut für Tests zur Benutzerfreundlichkeit von Software, beobachtet, bei welchen Prozessen der Benutzer etwa besonders erregt reagiert. Oder sie deutet die Reaktion des Anwenders einer Lernsoftware und weiß, ob er gestresst oder gar unterfordert ist. Auch die Aufmerksamkeit eines Fahrers könnte ein solches System prüfen. Ein Allroundgenie also zur Feinabstimmung sämtlicher Belange des modernen Konsumenten, die Möglichkeit einer optimierten Steuerung von Emotionen.


Unterstützen Sie unabhängigen und freien Journalismus

Danke, dass Sie Epoch Times lesen. Ein Abonnement würde Sie nicht nur mit verlässlichen Nachrichten und interessanten Beiträgen versorgen, sondern auch bei der Wiederbelebung des unabhängigen Journalismus helfen und dazu beitragen, unsere Freiheiten und Demokratie zu sichern.

Angesichts der aktuell schwierigen Zeit, in der große Tech-Firmen und weitere Player aus dem digitalen Werbemarkt die Monetarisierung unserer Inhalte und deren Verbreitung einschränken, setzt uns das als werbefinanziertes Nachrichten-Portal unter großen Druck. Ihre Unterstützung kann helfen, die wichtige Arbeit, die wir leisten, weiterzuführen. Unterstützen Sie jetzt Epoch Times indem Sie ein Abo abschließen – es dauert nur eine Minute und ist jederzeit kündbar. Vielen Dank für Ihre Unterstützung!

Monatsabo ab 7,90 Euro Jahresabo ab 79,- Euro

Gerne können Sie EPOCH TIMES auch durch Ihre Spende unterstützen:

Jetzt spenden!


Kommentare
Liebe Leser,

vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.

Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.

Da wir die juristische Verantwortung für jeden veröffentlichten Kommentar tragen müssen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.

Die Kommentarfunktion wird immer weiter entwickelt. Wir freuen uns über Ihr konstruktives Feedback, sollten Sie zusätzliche Funktionalitäten wünschen an [email protected]


Ihre Epoch Times - Redaktion