Bist du ein Mensch? 5   +   3   =  

Wenn Computer menschliche Gefühle erkennen, interpretieren, verarbeiten und simulieren können, spricht man von Affective Computing. Diese wissenschaftliche Teildisziplin vereint Elemente aus Informatik, Psychologie und Kognitionswissenschaft. Ihr Ziel ist es, die Interaktion zwischen Mensch und Maschine zu verbessern beziehungsweise überhaupt zu ermöglichen.

Ein wesentlicher Faktor ist dabei die Simulation von Empathie. Der Computer soll in die Lage versetzt werden, den Gefühlszustand eines Menschen zu erkennen und angemessen darauf reagieren. Um eine solche emotionale Intelligenz zu erreichen und damit einen hohen EQ, müssen Maschinen selbst nicht emotional sein. Tomas Chamorro-Premuzic, Professor für Wirtschaftspsychologie am University College London, hat das in einem Artikel des Guardian so erklärt: „Im Gegensatz zu dem, was die Leute denken, ist selbst bei Menschen ein hoher EQ eher mit niedrigerer als mit höherer Emotionalität verbunden. Es geht darum, seine Regungen zu kontrollieren und starke Gefühle zu zügeln, um rational zu handeln und emotionale Störungen zu minimieren.“

Ein Ziel von Affective Computing: der rücksichtsvolle Roboter

Als Pionierin des Affective Computing gilt die amerikanische Medienwissenschaftlerin Rosalind Picard, die 1997 ein Buch mit diesem Titel veröffentlicht hat. Die möglichen Auswirkungen ihrer Studien hat sie anhand eines Beispiels einmal so beschrieben: „Stellen sie sich vor, ihr Roboter kommt in die Küche, als sie gerade Frühstück für Gäste vorbereiten. Der Roboter begrüßt sie mit einem freundlichen ‚Guten Morgen!‘. Sie brummeln etwas, das er nicht versteht. Er bemerkt ihren Gesichtsausdruck, ihre Stimmlage, Rauch über dem Herd und wie sie einen Topf in die Spüle schmeißen. Daraus schließt er, dass sie anscheinend keinen guten Morgen haben. Umgehend stellt er seinen inneren Zustand auf „zurückhaltend“ um, was dazu führt, dass er seine Stimmlage senkt, vergnügtes Verhalten unterlässt und auf unnötige Konversation verzichtet.“

In dieser kleinen Geschichte sind die zwei wichtigsten Elemente von Affective Computing enthalten. Eines davon ist die Spracherkennung. Schon zehn Sekunden einer Stimmaufzeichnung können ausreichen, damit ein Computer die emotionale Verfassung einer sprechenden Person erfasst. Er muss dafür nicht unbedingt den Sinn der Worte verstehen, wichtiger sind Muster innerhalb von Tonsequenzen, die auf eine bestimmte Gefühlslage schließen lassen. Das zweite Element ist Analyse von Gesichtsausdrücken, die ebenfalls den emotionalen Zustand einer Person verraten. Einen zusätzlichen Hinweis kann die Körperhaltung geben.

Bild oben: Screenshot aus den Björk-Video „All Is Full Of Love“ von Chris Cunningham