Emotion-Tracking: Menschenrechtsgruppen laufen Sturm gegen Zoom

Videokonferenzen Künstliche Intelligenz soll den Gemütszustand der Teilnehmenden bei Videokonferenzen erkennen.

In einem offenen Brief haben letzte Woche 27 Menschenrechtsorganisationen gegen die Pläne des Softwareherstellers Zoom protestiert, seine Videoconferencing-App mit einem automatischen Gefühlsdetektor auszustatten. Dieses System namens Zoom IQ for Sales analysiert unter anderem Sprechgeschwindigkeit und Länge der Monologe, um daraus mithilfe künstlicher Intelligenz die Gefühlslage der Gesprächsteilnehmer zu erkennen. Im Protestschreiben heisst es nun, die Absichten des Unternehmens würden der Privatsphäre der Nutzerinnen und Nutzer und deren Menschenrechten zuwiderlaufen: «Zoom muss die Pläne zur Weiterentwicklung dieser Funktion stoppen», lautet die unmissverständliche Forderung.

Zoom ist nicht das einzige Unternehmen, das Algorithmen beibringen will, menschliche Regungen zu deuten. Solche Systeme sollen Verkäufer dabei unterstützen, sich während Verkaufsgesprächen besser auf den Kunden einzulassen, und sie rechtzeitig zu warnen, wenn sich bei diesem Frustration breitmacht. In einer Konsole sieht der Verkäufer in einer grafischen Darstellung fortlaufend, was das System an Zufriedenheit, Glück, Engagement, Überraschung, Ärger, Ekel, Angst und Traurigkeit misst – so beschrieb es die zur US-Tageszeitung «Politico» gehörende Website Protocol.com kürzlich.

Meta hat grosse Pläne mit dem Metaversum

Doch diese Werte sind längst nicht so verlässlich, wie diese Anzeigen implizieren: Der Gesichtsausdruck eines Menschen sei oft nicht mit seinen inneren Gefühlen verbunden, kritisieren die Menschenrechtsvertreter und weisen darauf hin, dass nicht einmal Menschen die Gefühlslage anderer jederzeit genau richtig lesen und verstehen könnten. Ein weiteres Problem bestehe gemäss dem Brief in der Gefahr der Diskriminierung: Mimik und Körpersprache sind längst nicht universell, sondern unterscheiden sich nach Ethnien.

Auch Menschen mit Behinderungen laufen Gefahr, missverstanden zu werden. Ein solches System beschädige die zwischenmenschlichen Beziehungen, indem diese zu Verkaufszwecken ausgebeutet würden, und schliesslich berge es auch die Gefahr, dass es abseits von Verkaufssituationen eingesetzt werde und Studierende oder Arbeitnehmerinnen und Arbeitnehmer bestraft werden könnten, wenn sie Gefühle zeigen würden, die Überwacher als unangemessen betrachten könnten.

Die Sensibilisierung für dieses Thema kommt zur richtigen Zeit. Im Januar hat die «Financial Times» auf Patente hingewiesen, die sich der Facebook-Mutterkonzern Meta schützen lassen hat: Diese deuten darauf hin, dass Meta in seinem Metaversum die Personalisierung der Werbung weiter treiben will, als das im Web möglich ist. Die Brillen, die zum Besuch der virtuellen Welt getragen werden müssen, könnten die Blickrichtung und die Pupillenaktivität auswerten und daraus Rückschlüsse über Interessen und den Gefühlszustand eines Nutzers ableiten. Die Patente umfassen gemäss der Zeitung auch ein «tragbares magnetisches Sensorsystem», das um den Torso geschnallt werde und es erlauben würde, die Körperhaltung des Trägers auf seinen Avatar im Metaversum zu übertragen. Nebenbei würde er Meta Informationen über die Körpersprache einer Person mitteilen und KI-Systemen Daten über deren Gemütszustand liefern. Sollte dieses Szenario wahr werden, würden wir künftig nicht nur mit persönlichen Daten, sondern auch mit Gefühlen für Onlineprodukte bezahlen.

Matthias Schüssler

Quelle: Tages-Anzeiger, Mittwoch, 18. Mai 2022

Rubrik und Tags:

Faksimile
220518 TA Seite 29.pdf

Die Faksimile-Dateien stehen nur bei Artikeln zur Verfügung, die vor mindestens 15 Jahren erschienen sind.

Metadaten
Thema: Abmacher
Nr: 19263
Ausgabe:
Anzahl Subthemen:

Obsolete Datenfelder
Bilder:
Textlänge:
Ort:
Tabb: false