Wie Siri Emotionen erkennen und darauf reagieren soll
Sprachassistenten wie Siri sind emotionslos – und zwar gleich in zweifacher Hinsicht. Zum einen verfügen Computersysteme nicht über eigene Gefühle, andererseits sind sie nicht in der Lage, die Befindlichkeiten der Nutzer zu erkennen. Geht es nach Apple, dann könnte sich das in nicht allzu ferner Zukunft ändern: Der iPhone-Konzern erforscht derzeit offenbar Möglichkeiten, Gesichtsausdrücke zu erkennen und auszuwerten.
Analyse der MuskelaktivitätenEin entsprechendes Verfahren beschreibt Apple in einem jetzt vom US Patent & Trademark Office veröffentlichten
Patentantrag. Zur Erkennung von Gesichtsausdrücken könnte dabei eine erweiterte Form von Face ID dienen. Diese soll in der Lage sein, die Mimik des Nutzers anhand einer Analyse der Muskelaktivitäten auszuwerten. Im einfachsten Anwendungsfall erlaubt das die präzisere Identifizierung des Nutzers, aber eben auch Rückschlüsse auf dessen Emotionen. Das System könnte so anhand einer mimischen Reaktion beispielsweise erkennen, ob eine Anfrage zufriedenstellend beantwortet wurde.
Foto: Apple
Kodierung der GesichtsbewegungenZum Einsatz kommt dabei das sogenannte Gesichtsbewegungs-Kodierungssystem ("Facial Action Coding System",
FACS), welches Psychologen seit rund 40 Jahren zur Klassifizierung von Gesichtsausdrücken verwenden. FACS beschreibt eine Vielzahl von mimischen Ausdruckformen wie etwa das Heben der Augenbrauen, das Herabziehen der Mundwinkel oder das Rümpfen der Nase. Das System bezieht auch die Stärke einer Bewegung mit ein. Aus Kombinationen bestimmter Bewegungsmuster lassen sich dann Emotionen wie Freude, Wut oder Trauer ableiten.
Erkennung der Reaktion des NutzersIn einem ersten Schritt erkennt das System dem Patentantrag zufolge anhand der hinterlegten FACS-Kategorien, ob der Nutzer positiv oder negativ auf der Ergebnis einer Anfrage reagiert. Allerdings sollen auch weitere Auswertungen möglich sein, etwa die Ausdrucksstärke der erfassten Mimik. Dadurch ließe sich unter Umständen der Sinn eines Sprachbefehls oder einer Frage präziser ermitteln, was vor allem bei mehrdeutigen Sätzen die Fähigkeiten des Sprachassistenten erheblich verbessern würde. Ob Apple die im jetzt veröffentlichten Patentantrag beschriebene Technologie bereits praktisch entwickelt oder gar erprobt, ist nicht bekannt.