Skip to content
Willkommen bei uns, einem Team engagierter Zukunftsforscherinnen und Zukunftsforscher, das Organisationen auf ihrer Reise in die Zukunft unterstützt. Unsere Expertise fließt in Publikationen und Modelle ein, während wir Unternehmen bei Vision, Strategie, Innovation und Positionierung beraten. Gemeinsam gestalten wir eine erfolgversprechende Zukunft.

Wir unterstützen Organisationen auf ihrem Weg in die Zukunft. Eine datenbasierte und systemische Anwendung der Zukunftsforschung ist dafür handlungsleitend. Sie mündet in Publikationen, Tools, Trendradaren und in der Beratung zu Vision, Positionierung, Strategie und Innovation.

Gemeinsam in die Zukunft

Vereinbaren Sie einen kostenlosen Termin mit unserem Expertenteam, um zu erfahren, wie das Zukunftsinstitut Ihr Unternehmen transformieren kann.

Entdecken Sie die Themen der Zukunft. Tauchen Sie ein in die Welt der Megatrends und Lebensstile. Oder beschäftigen Sie sich mit konkreten Entwicklungsaufgaben von Organisationen: Strategie, Vision, Kommunikation und Innovation.

Der Mensch ist das großartigere System.

Wirtschaftsinformatikerin Prof. Dr. Sarah Spiekermann über die Grenzen der maschinellen Intelligenz und die Bedeutung menschlicher Werte in Zeiten zunehmender Automatisierung.

Frau Prof. Dr. Spiekermann, wie intelligent ist KI eigentlich?

Sarah Spiekermann: Ob man nun von „Künstlicher Intelligenz“ spricht oder nicht: Jede komplexe Datenverarbeitung hängt von der Qualität und der Vielzahl der Daten ab, die verarbeitet werden können. Maschinen können nur so intelligent sein wie es ihre Daten sind. Das bedeutet, dass jede Maschine natürlicherweise begrenzt ist, weil es nicht möglich ist, die gesamte Realität des Menschen und sein situatives Umfeld durch Maschinen zu erfassen. Es gibt auf diese Art eine natürliche Limitierung der Maschine, die jeder technisch versierte Informatiker oder Systemingenieur unterschreiben muss.

Darauf würden „Dataisten“ antworten: Wenn wir nicht genug Daten haben, müssen wir eben noch mehr Daten sammeln ...

Ich habe eine andere Auffassung. Für mich ist es eine Tatsache, dass der allergrößte Teil dessen, was dem Menschen in seinem Leben Bedeutung gibt, unsichtbar ist. Denn es sind Werte, die dem menschlichen Leben Bedeutung geben. Werte, die im Raum stehen und uns umgeben. Aber wie soll man Werte wie Sympathie oder Gemütlichkeit messen? Wenn zwei Menschen sich in einem Raum treffen und sie lächeln einander an, kann der Sensor oder die Kamera anhand der hochgezogenen Mundwinkel zwar feststellen, dass die beiden sich anlächeln. Aber er kann nicht wissen, ob das Lächeln dieser Personen etwas mit Sympathie als einem Wert zu tun hat – oder nur mit formeller Höflichkeit. Ob ein Wert wie Sympathie besteht, ob sie einander sympathisch sind oder nicht, können nur die beiden wissen. Egal wie freundlich der eine zum anderen sein mag.

Sie meinen, emotionale Intelligenz ist Maschinen also prinzipiell verschlossen?

Die emotionale Intelligenz eines Menschen ist in der Lage, die im Raum stehenden Werte präzise zu erfassen und sich daraufhin dann gut und situationsgemäß zu verhalten. Eine Maschine kann uns dabei nur begrenzt folgen. Eine Maschine kann feststellen, dass hier Emotionen im Raum stehen, das kann sie an den Gesichtszügen, an der Hautleitfunktion oder an der Pupillenerweiterung der Menschen ablesen. Aber obwohl sie diese Informationen einlesen kann, kann die Maschine nicht wissen, warum das so ist. Wenn Maschinen diese Art von Zugang zur unsichtbaren Wertewelt nicht haben, dann fehlt ihnen ein sehr wichtiger Bestandteil von dem, was menschliche und gesellschaftliche Intelligenz ausmacht – und deswegen können Maschinen nicht intelligent im menschlichen Sinne sein.

Warum redet man dann überhaupt von „Intelligenz“ bei KI?

Maschinen haben ja ihre eigene Intelligenz, in der sie Menschen überlegen sind. Zum Beispiel können Maschinen hervorragend in großen Datensätzen Muster erkennen und darüber Modelle und Hypothesen bilden, die uns Menschen überraschen und uns oft auf eine Weise mit unserer eigenen Realität konfrontieren, die wir nicht erwartet hätten. So hat man etwa durch Big-Data-Analysen herausgefunden, dass für das Kaufverhalten von Menschen besonders der Vorname ausschlaggebend ist. Eine Sarah kauft andere Produkte als eine Susi. Des Weiteren sehen Maschinen in großen Datensätzen Details, die wir Menschen nicht sehen, weil sie eine Art Pixelintelligenz haben, eine hoch detaillierte Intelligenz. Deswegen schreiben wir den Maschinen „Intelligenz“ zu: weil sie kognitive Eigenschaften haben, in denen wir nicht so gut sind. Aber Fortschritt braucht Weisheit und Mut – und Maschinen fehlt beides. Weisheit und Mut sind Tugenden, die nur der Mensch besitzt. Mir ist es wichtig zu betonen, dass der Mensch das großartigere System ist. Maschinen sind wertvolle Tools, aber nicht mehr. Sie sind Werkzeuge, und das sollten sie auch bleiben. Nur der Mensch ist in der Lage, Werte zu erkennen – und Werte sind der Schlüssel zur Ethik und zum guten Leben.

Besteht das perfekte Team dann aus kreativen, erfinderischen Menschen und KI-Systemen, die von Menschen lernen und das Gelernte optimieren?

Richtig. Eine gute Zukunft, eine, vor der ich keine Angst hätte, wäre die, in der man Mensch und Maschine klug miteinander verbindet im Urteil über die Realität. Aber leider ist der heutige Trend ein anderer. Heute haben sehr viele Leute vergessen, wie intelligent der Mensch selber ist und schreiben Maschinen durch zu viel Science-Fiction-Konsum lauter menschliche Intelligenzeigenschaften und eine emotionale, wertebasierte Intelligenz zu, die die Maschine gar nicht haben kann. Diese Zuschreibungen führen dazu, dass sich heute viele Menschen auf breiter Front wünschen, eher Maschinen als Menschen einzusetzen. Auf Basis dieser falschen Urteile und einer Unterschätzung des Menschen sowie einer Überschätzung der Maschinen laufen wir Gefahr, an viel zu vielen Stellen Maschinen einzusetzen zu Zwecken, wo Maschinen überhaupt nicht geeignet sind.

Können Sie dafür Beispiele nennen?

Wenn man bei Bewerbungsverfahren KI-Systeme einsetzt, um Menschen, die sich auf Jobs bewerben, zu beurteilen. Wenn man Maschinen helfen lässt, Manuskripte von Autoren zu selektieren. Wenn man in Callcentern beim Customer Service zu viel KI einsetzt. Oder bei der Rechtsprechung, wenn Roboter Gesetzbücher, Notizen und Anträge durchsehen und relevante Unterlagen zum aktuellen Fall zusammentragen. Überall dort, wo eine hohe emotionale Intelligenz gefordert ist, um zu verstehen, was wirklich passiert, ist eigentlich der Einsatz von KI nicht empfehlenswert. Wenn man sich aus Kostengründen dennoch entscheidet, Maschinen einzusetzen, muss man sich darüber im Klaren sein, dass die Qualität der eigenen Prozesse dramatisch leiden kann oder dass man sich auf ethisch bedenkliches Terrain begibt.

Was ist die größte Bedrohung, die von KI ausgehen kann?

Die größte Bedrohung besteht in einer Kopplung des heutigen Überwachungskapitalismus mit einer Milton Friedman'schen Doktrin der absoluten Shareholder-Value-Mentalität: die Kostenreduktion auf der einen Seite, gekoppelt mit den Maschinen. Die größte Bedrohung ist also, dass man im Namen der Kosteneffizienz Dinge automatisiert, die man besser nicht automatisieren sollte. Das wird langfristig zu einem Zusammenbruch der Unternehmen führen, die KI so einsetzen. Es kommt allerdings auf die jeweilige Situation des Unternehmens an: Handelt es sich um Monopolbetriebe oder staatliche Institutionen und die Leute haben keine andere Wahl, oder entwickelt sich die Gesellschaft so, dass alle Betriebe solche Systeme einsetzen, dann werden wir durch die zu weit getriebene Digitalisierung einen massiven Rückschritt in unserer Gesellschaft erleiden.

Plädieren Sie deshalb dafür, sich bei Systementwicklungen aufs Wesentliche zu konzentrieren? Was genau verstehen Sie darunter?

Ich plädiere dafür, dass man sich über die Ziele im Klaren ist. Dass man sich am Anfang einer Systemerschaffung oder -anschaffung immer Fragen jenseits der Kosteneffizienz stellt: Welchen Wert möchte ich in mein Unternehmen und in die Gesellschaft bringen? Welche Verpflichtungen habe ich, bestimmte Werte in der Gesellschaft zu bewahren, wie zum Beispiel die Würde? Denn für mich ist es durchaus eine Frage der Würde, ob ich als Unternehmen Lebensläufe nur noch von Maschinen auslesen lasse oder nicht. Ich empfinde es als würdelos, Bewerber so zu behandeln. Das würde sich auch nicht mit dem alten Kant ausgehen. (lacht)

Wohin sollte sich das Wertesystem im 21. Jahrhundert entwickeln?

Das Wertesystem für das 21. Jahrhundert besagt lediglich, dass wir uns der Werte und der Wertqualitäten, die wir uns von einer Technologie wünschen, bewusster werden. Würden wir etwa Roboter so entwickeln, dass Höflichkeit ein wichtiger Wert ist, könnte man fragen: Welche anderen Werte gehen mit der Höflichkeit eines Roboters einher? Welche Wertqualitäten könnte man zum Ziel technischer Entwicklungen machen? Dann stünden Respekt, Kontrolle, höfliche Gestik und Mimik als Wertqualitäten im Zentrum der Entwicklung – und bei Robotern würden andere Systemeigenschaften entwickelt werden als einfach nur das Transportieren von Dingen.

Wie lässt sich dieses Bewusstsein schärfen und verbreiten? Welche Prozesse braucht es jetzt?

Wichtig ist es, die jetzige Entwicklung überhaupt erst einmal zu hinterfragen – und die Werte, die unserem Leben Bedeutung geben, bewusster zu machen. Weil sie der Schlüssel zu einem besseren Leben sind. Und weil sie der Schlüssel zu einem besseren Investieren und einer besseren Entwicklung von Technologie sind. Man sagt nach Laotse: Wer sein Ziel kennt, findet den Weg. Die priorisierten Werte sind das Ziel.

Image Credits: Unsplash / Alessio Ferretti