Zukunftsthemen

KI: Vorsicht vor maschineller Manipulation

Geschrieben von Zukunftsinstitut | Aug 6, 2021 10:00:00 AM

Wir füttern smarte Systeme mit Daten, und die KI spuckt Entscheidungen aus – Entscheidungen, die für unser Leben von zentraler Bedeutung sind. KI bestimmt zusehends, ob wir für ein Jobinterview eingeladen werden, welchen Kredit wir erhalten oder welcher Partner uns auf Dating-Plattformen vorgeschlagen wird. Damit beeinflusst KI unser Leben, unsere Gesellschaft – und die menschliche Wahrnehmung. Spätestens seit dem Cambridge-Analytica-Skandal bei den US-Präsidentschaftswahlen ist die manipulative Macht von ausgeklügelten Algorithmen Grund gesellschaftlicher Beunruhigung. Rund 80 Prozent der Deutschen fühlen sich heute unwohl, wenn Computer über sie entscheiden.

Bewusste und unbewusste Manipulation

Die Beeinflussung durch KI kann drei Bereiche betreffen: den Input der Daten in ein KI-System, die Programmierung der dazugehörigen Algorithmen und den Output, den ein KI-System liefert – inklusive seiner Interpretation. Der Grad der Manipulation kann dabei von eher unabsichtlicher Verzerrung bis zu aktiver Manipulation reichen – und oft beeinflussen sich Mensch und KI dabei wechselseitig.

Ein beeindruckendes Beispiel aktiver Manipulation sind Fake-Videos von Prominenten, die heute schnell und einfach über entsprechende Gratis-Apps von jedem produziert werden können. Riskant ist auch das KI-System GPT-2 der Non-Profit-Organisation OpenAI: Der Algorithmus schreibt, nach kurzem Text-Input, sehr überzeugend Texte – allerdings auch solche ohne Wahrheitsgehalt. Auf diese Weise kann KI die Erstellung und Verbreitung von Fake News massiv beschleunigen. Eine bewusste Manipulation mittels KI kann aber auch eine Schleife in einem Programm sein, die Alter oder Geschlecht als Ein- oder Ausschlusskriterium für eine Werbeanzeige definiert.

Komplexer ist dagegen die Frage nach den unbewussten Manipulationen. So kann etwa die unreflektierte Eingabe verzerrter oder unangemessener Daten, die vorherrschende gesellschaftliche Diskriminierungen widerspiegeln, gesellschaftlich unerwünschte Resultate mit ungewollten Spätfolgen erzeugen. Beispiele für solche KI-Bias aufgrund verzerrter Trainingsdaten sind zahlreich. So klassifizierte Google Photos etwa Afroamerikaner auf Bildunterschriften als Gorillas, und ein Social-Media-Chatbot von Microsoft äußerte sich nach kurzer Zeit rassistisch.

Oft geschieht unbeabsichtigte Manipulation infolge einer fehlerhaften Programmierung, etwa einem unreflektierten Rückgriff auf bestehende Daten. So verglich etwa ein Amazon-Algorithmus Bewerber mit der vorhandenen Belegschaft und lud mehr Männer als Frauen zum Gespräch, da Amazon bereits mehr männliche als weibliche Mitarbeiter hat. Auf diese Weise sorgen Algorithmen dafür, vorhandene gesellschaftliche Strukturen fortzuschreiben. Ein ähnliches Beispiel beschreibt die Mathematikerin Cathy O’Neil in ihrem Buch „Angriff der Algorithmen“ mit PredPol, einem Programm, das die Wahrscheinlichkeit von Straftaten in bestimmten Regionen Pennsylvanias (USA) vorhersagt: Basierend auf Statistiken bisheriger Festnahmen schickte der Algorithmus Polizeistreifen in die jeweiligen Gebiete. Da dort folglich mehr Streifen patrouillierten, stieg auch die Anzahl der Festnahmen – was wiederum ins System einfloss und die Tendenz verstärkte.

Algorithmen berücksichtigen ohne entsprechende Programmierung nur Korrelationen, nicht aber die Kausalitäten, die hinter den Daten stecken. Erfasst eine KI lediglich die Korrelation der Merkmale „weiblich“ und „niedriges Joblevel“, sucht sie für eine Führungsposition keine oder weniger weibliche als männliche Kandidaten. Auf diese Weise bestätigt KI tatsächlich Vorurteile und verschärft gesellschaftliche Benachteiligung, gerade weil sie zentrale Aspekte sozialer Teilhabe (mit)entscheidet – von Kreditvergaben über Beförderungen bis zum Zugang zu kostenlosen Medikamenten oder der Chance auf vorzeitige Haftentlassung.

KI nimmt aber nicht nur Einfluss auf konkrete Ereignisse und Entscheidungen, sondern verändert auch die menschliche Wahrnehmung, unsere Sprache und damit unser Denken. Algorithmen scannen Suchanfragen und schlagen via Autovervollständigung Worte vor, die Nutzer meist unhinterfragt übernehmen. Wir sprechen mit KI-getriebenen Sprachassistenten in Befehlsform – und was sich nicht technisch verbalisieren lässt, wird tendenziell auch undenkbar. Auch hier findet eine Manipulation statt: Die KI der Tech-Konzerne formatiert unser Erleben.

Von manipulativer zu moralischer KI

Wir wünschen uns, dass KI moralisch korrekt und „menschlich“ entscheidet – und sind entsetzt, dass ihre Entscheidungen rassistisch, sexistisch oder in anderer Weise diskriminierend sein können. Doch die Basis, auf der KI entscheidet, ist stets von Menschen geschaffen. Algorithmen können nur so befangen und diskriminierend sein wie die Menschen, die sie programmieren, und die Trainingsdaten, von denen sie lernen. Oder wie es Cathy O’Neil ausdrückt: „Algorithmen sind Meinungen, verpackt in Mathematik.“

Um manipulativer KI entgegenzusteuern, muss der Fokus also auf den Daten und Programmen liegen, auf deren Grundlage KI agiert. Konkrete Ansatzpunkte dafür sind:

  • Transparenz: Implizite Annahmen und Vorurteile müssen sichtbar gemacht werden. Transparenz bei Trainingsdaten ist ein Schritt in diese Richtung.
  • Verantwortung und Regulierung: Staatliche Kontrolle ist gesellschaftlich gewünscht, etwa in Form eines „KI-TÜV“. Eine Selbstverpflichtung der Industrie oder eine Art hippokratischer Eid für Entwickler, wie von O’Neil vorgeschlagen, reichen hier nicht aus.
  • Kausalität statt Korrelation: Diskriminierung kann vermieden werden durch kausale Schlussfolgerung und Kontextsensibilisierung.
  • Diversität: Die Abkehr von der weißen, männlichen „New Digital Aristocracy“ ermöglicht mehr Teamdiversität.
  • Wissenstransfer: Damit KI für alle zugänglich und nutzbar wird, muss ein grundlegendes digitales und technisches Verständnis bereits in der Schule vermittelt werden.


Private und staatliche Organisationen wie AlgorithmWatch oder das AI Now Institute setzen sich bereits mit den gesellschaftlichen Konsequenzen von KI auseinander, leisten Aufklärungsarbeit und versuchen herauszufinden, wie Algorithmen für historische Daten und Kontexte sensibilisiert werden können. Auch Unternehmen entwickeln zunehmend selbst Programme, um KI-Verzerrungen zu identifizieren. So will etwa Facebook unfaire Algorithmen mit dem Programm „Fairness Flow“ entlarven.

Das manipulative Potenzial von KI und seine Konsequenzen sind eine ernst zu nehmende Gefahr für die gesamte Gesellschaft – fatalerweise vor allem für jene, die bereits unter Diskriminierung leiden. Dennoch ist eine unreflektierte Panik vor einer allmächtigen manipulativen KI fehl am Platz. KI entscheidet auf Basis der Daten und Programme, die wir ihr geben. Es liegt an uns, dafür zu sorgen, dass diese Entscheidungen gemäß unseren gesellschaftlich verankerten Werten getroffen werden.

Foto: Unsplash / Franck V.