Sie sind schon unter uns

Bots verhalten sich bei weitem nicht immer so hilfsbereit wie Siri und Co. In sozialen Netzwerken sind sie unerkannt unterwegs, um die öffentliche Meinung zu lenken – etwa vor den Präsidentschaftswahlen in den USA. Braucht es eine Deklarationspflicht?

Matthias Schüssler

So hilfsbereit kann Technik sein: Siri gibt sich am iPhone als geduldige Assistentin, und Google-Smartphones weisen von sich aus auf den nächsten Termin und Verkehrsstaus auf dem Heimweg hin. Amazons Assistentin Alexa bestellt auf Zuruf WC-Papier und spielt die passende Musik. Facebook-Chef Mark Zuckerberg will einen digitalen Assistenten auf die Menschheit loslassen. Er heisst «M» und wird in der Messenger-App sitzen. Dort wartet er darauf, den Facebook-Nutzern Geschenktipps zu geben, wenn der Geburtstag des Partners ansteht. Oder bei der Jobsuche zu helfen.

Willkommen in der Welt der Bots. Bei Facebook werden Unternehmen und Promis künftig sogar die Möglichkeit haben, eigene Bots zur Kommunikation mit Kunden und Fans aufzusetzen. Und so dem Kontakt einen persönlicheren Anstrich verleihen.

Doch Bots sind nicht immer nur nett. Sie unterwandern soziale Medien. Sie bringen Diskurse zum Entgleisen. Und sie arbeiten für politische Strippenzieher. «Es ist definitiv so, dass wir heute mit Bots kommunizieren, ohne uns immer klar darüber zu sein, dass wir es mit einer Maschine zu tun haben», sagt Simon Hegelich.

Er ist Professor für Political Data Sciences an der Technischen Universität München und erforscht unter anderem, wie man Bots als solche erkennt. Er hat festgestellt, dass auf Twitter um die 15 000 Bots unterwegs sind, die sich in den Ukrainekonflikt einmischen und für die Nationalisten Stimmung machen. Sie sind für manche Nutzer als automatisch reagierende Dialogmaschine erkennbar – für andere nicht.

Trump und seine Latino-Fans

Die Social Bots bewegen sich auf Facebook und Twitter und versuchen, möglichst viele Follower für sich zu gewinnen. Sie posten Witze und lustige Bilder, lassen sich übers Wetter aus und tun, was die anderen User auch tun. Und verbreiten nebenbei ihre Botschaft. Im US-Wahlkampf hat eine grössere Zahl von Bots behauptet, Donald Trump sei in Nevada bei den Latinos besonders beliebt.

Wie wirkungsvoll solche Kampagnen sind, sei schwierig zu beurteilen, sagt Hegelich. Ausschliessen könne man, dass jemand wegen eines rassistischen Kommentars selbst zum Rassisten wird: «Eine Manipulation auf Zuruf findet nicht statt.» Doch wenn Bots zu Hashtags wie Pegida oder Refugee besonders aggressive Kommentare posten, fühlen sich manche abgestossen und meiden die Diskussion. Andere Nutzer lassen sich vom gehässigen Tonfall anstecken. So oder so heizt sich die Stimmung auf.

Es gibt auch Bots, die die öffentliche Meinung nicht kippen, sondern subtil lenken wollen. Nudging nennt sich das, weil Entscheidungen «angestossen» werden. Datenwissenschaftler Simon Hegelich hat ein Beispiel, wie das ablaufen kann: Wenn ein politischer Kandidat ermitteln kann, wer Sympathien für ihn hegt, dann kann er sie am Wahltag daran erinnern, zur Urne zu gehen. Auch ohne explizite Wahlempfehlung kann über die Mobilisierung eine Beeinflussung des Resultats gelingen. Und zwar auf «eine Art und Weise, die ethisch relativ harmlos ist», wie Hegelich findet.

Die Stärke der Bots ist das, was Experten die «Skalierbarkeit» nennen. Durch eine Service-Hotline können die Bots Hunderte oder Tausende Anrufe gleichzeitig entgegennehmen und die wiederkehrenden Fragen autonom beantworten. Das «Time Magazine» machte schon Ende 2013 den Fall von «Samantha West» publik. Sie rief wegen einer Krankenkassenpolice an und beteuerte auf die Frage des Reporters, ob er es mit einem Computersystem zu tun habe, ein echter Mensch zu sein. Andererseits konnte sie jedoch die Frage nicht beantworten, welches Gemüse in einer Tomatensuppe zu finden sei. Der Betreiber des Callcenters seinerseits beteuerte, «Samantha West» werde von echten Menschen gesteuert. Sie nutzten jedoch die Computerstimme, weil sie im Ausland angesiedelt seien und wegen ihres Akzents von den Kunden womöglich nicht akzeptiert werden würden.

Vielleicht telefonieren wir schon mit Maschinen. Und wenn nicht, werden wir es sehr bald tun. Die Technik hat in den letzten Jahren grosse Fortschritte gemacht. Die grundlegenden Algorithmen wurden zwar schon in den 1970er-Jahren entwickelt und die neuronalen Netze, die heute für Furore sorgen, sind in den 1990er-Jahren entstanden. Doch dank des Mobiltelefons lässt sich die Kommunikation heute auswerten: Dank den riesigen Datenmengen können die alten Verfahren heute statistisch greifen. Sind Bots intelligent? Da sie es schaffen, unerkannt soziale Netze unsicher zu machen, stellt sich auch die Frage, ob sie damit den Turing-Test bestehen – und damit als künstliche Intelligenz gelten dürfen. Der Turing-Test ist ein einfaches Verfahren, das der Vater der Informatik, Alan Turing, 1950 vorgeschlagen hat: Wenn ein Nutzer nicht merkt, dass er mit einer Maschine spricht, dann «denkt» die Maschine wie ein Mensch.

Dieser Schluss sei heikel, sagt Simon Hegelich, der an der TU München Erkennungsverfahren für Bots entwickelt. Der Turing-Test geht davon aus, dass Tester ein System bewusst auf den Prüfstand stellen: «Wenn das gegeben ist, dann werden die Bots schnell enttarnt.» Mit unvermittelten Alltagsfragen wie «Was befindet sich rechts von dir?» bringt man Bots aus dem Konzept. Oder mit der Frage nach den Zutaten einer Tomatensuppe, auf die «Samantha West» keine Antwort wusste.

Bots sind keine echten künstlichen Intelligenzen. Sie sind zwar in der Lage, sich automatisch zu verbessern, beispielsweise im Kontakt mit Kunden einer Hotline zu analysieren, wann die Anrufer zufrieden sind, wann sie nachfragen oder einfach auflegen. Sie können aber nicht auf unbekannte Situationen eingehen und autonome Entscheidungen treffen. Das macht sie gefährlicher als eine echte künstliche Intelligenz. Eine solche müsste über moralische Richtlinien verfügen.

Ohne das Wissen über Gut und Böse lassen sich Bots leicht manipulieren. So ist es Microsoft kürzlich mit dem Twitter-Bot «Tay» passiert. Seine Gesprächspartner haben den Bot dazu gebracht, Dinge wie «Ich rauche Hanf vor der Polizei» zu twittern oder den Holocaust zu leugnen.

Wegen dieser Beeinflussbarkeit erachtet Simon Hegelich eine Deklarationspflicht für Bots für sinnvoll. Damit jeder Nutzer entscheiden kann, ob er sich mit ihnen abgeben will oder nicht.

Sein Bot hat wenigstens eine erotische Stimme: Joaquín Phoenix spielt in «Her» einen Verliebten mit Knopf im Ohr. Foto: PD

Ohne das Wissen über Gut und Böse lassen sich Bots leicht manipulieren.

Quelle: Tages-Anzeiger, Mittwoch, 11. Mai 2016

Rubrik und Tags:

Faksimile
160511 Seite 33.pdf

Die Faksimile-Dateien stehen nur bei Artikeln zur Verfügung, die vor mindestens 15 Jahren erschienen sind.

Metadaten
Thema: Aufmacher
Nr: 13616
Ausgabe:
Anzahl Subthemen: 1

Obsolete Datenfelder
Bilder:
Textlänge:
Ort:
Tabb: FALSCH