Benjamin Leven: Vor ein paar Tagen war die Schlagzeile zu lesen: "Jugendliche wollen soziale Medien weniger nutzen, schaffen es aber nicht." Was ist da los?
Spiekermann: Wir sehen heute die Problematik, dass soziale Medien Geschäftsmodelle haben, die die Aufmerksamkeit von Menschen kapitalisieren. Das bedeutet, dass diese Plattformen versuchen, junge Menschen so lange wie möglich bei sich zu behalten. Die Algorithmen sind so designt, dass die jungen Menschen süchtig gemacht werden und sehr viel Zeit dort verbringen. Sie begreifen natürlich alle, dass sie süchtig sind; keiner ist so dumm, das nicht zu merken. Aber es ist enorm schwer, mit der eigenen Sucht fertig zu werden.
Leven: Wie ist es denn bei Ihnen selbst? Gelingt es Ihnen, digitale Medien so zu nutzen, dass es nicht der geistigen und körperlichen Gesundheit schadet?
Spiekermann: Es ist natürlich ein gewisser Kampf, aber ich tue mich insofern leicht, als ich zum Beispiel kein WhatsApp habe und auch keines der gängigen Social-Media-Netze benutze. Maximal schaue ich alle zwei, drei Wochen mal bei LinkedIn vorbei. Ich habe diesen Habitus also nie angenommen.
Leven: Sie beide sind Teil einer Gruppe von Experten, die "Zehn Regeln für die digitale Welt" aufgestellt haben. Was versprechen Sie sich davon?
Johannes Hoff: Wir haben versucht, eine Gruppe von Fachleuten zusammenzubringen, die das ganze Spektrum abdecken – von technischer Forschung bis hin zu Ethik. Es stellte sich schnell heraus, dass die jetzige Situation als dramatisch wahrgenommen wird. Das beginnt bei Entwicklungen, die jeder von uns im Alltag wahrnimmt, und endet bei Forschungskonferenzen, wo Leute Science-Fiction-Vorträge halten und danach anbieten, dass man ihnen einen Link ins Gehirn implantiert. Armin Grunwald vom Institut für Technikfolgenabschätzung in Karlsruhe, der auch Mitglied des Deutschen Ethikrates ist, sagte: "Warum machen wir nicht zehn Gebote für die digitale Welt?" Das hat uns sehr inspiriert, wenngleich wir das Ergebnis am Schluss "Zehn Regeln" genannt haben, da die Gruppe nicht konfessionell ist. Es zeigte sich aber, dass die Zehn Gebote eine unglaubliche Stärke haben, die über die üblichen Regeln zu Fairness und Transparenz hinausgeht. Wir brauchen etwas, das wie die Zehn Gebote funktioniert: Es soll für jeden gelten, im Alltag anwendbar sein und man soll es sich leicht merken können. Die zehn Regeln sind einfach und wirken wie Scheinwerfer, die die Aufmerksamkeit auf bestimmte Felder unseres Alltagslebens lenken, sodass man merkt: "Ah ja, das habe ich noch nicht bedacht."
"Das christliche Menschenbild, wie es im Mittelalter vor allem durch Augustinus geprägt war, erschließt eine Perspektive, die die Schwächen unseres modernen, humanistischen Denkens zu überwinden und eine differenziertere, ganzheitlichere Anthropologie zu entwickeln erlaubt."
Leven: Sie haben von der christlichen Tradition gesprochen. Warum beschäftigt sich ein katholischer Theologe mit digitaler Technik?
Hoff: Ich habe 13 Jahre in Großbritannien gelehrt; seit dieser Zeit beschäftige ich mich mit dem Thema. Auf Basis meiner Forschungsarbeiten zu Nikolaus von Kues habe ich entdeckt, dass die Idee der Digitalisierung – also alles in elementare, kontrollierbar reproduzierbare Informationseinheiten aufzulösen – bereits in der Renaissance auftaucht. Ich habe damals die These aufgestellt, dass wir jetzt in ein post-digitales Zeitalter eintreten, in dem wir komplementär denken müssen: Wir müssen uns nicht fragen, was wir noch digitalisieren können, sondern was menschliche von künstlicher Intelligenz unterscheidet und welche Gefahren darin stecken, wenn man beides verwechselt. Das christliche Menschenbild, wie es im Mittelalter vor allem durch Augustinus geprägt war, erschließt eine Perspektive, die Schwächen unseres modernen humanistischen Denkens zu überwinden, und eine differenziertere, ganzheitlichere Anthropologie zu entwickeln erlaubt. Augustinus hat unser gesamtes körperlich-leibliches Erleben, unser Gedächtnis und unsere Emotionen im Blick und reduziert Denken nicht auf Rechnen. Jeder, der spirituelle Exerzitien macht, weiß: Verstehensprozesse brauchen Zeit, Imagination und innere Ruhe. Diese Dimension der Selbstkultivierung ist verloren gegangen, weil wir in der Moderne dachten, wir seien autonome Subjekte, das sei gesichert und die Kultivierung von spirituellen Praktiken sei eine Privatangelegenheit. Das können wir uns heute nicht mehr erlauben.
Rote Linien
Leven: Damit sind wir bei der zweiten Ihrer zehn Regeln: "Schreibt Maschinen keine Menschlichkeit zu." Künstliche Intelligenzen benutzen Ich-Bezüge und bringen Gefühle zum Ausdruck. Was ist das Problem damit?
Spiekermann: Die Sprachmodelle, mit denen wir kommunizieren, beziehen sich nicht nur auf ein "Ich", das sie de facto nicht haben, sondern sie täuschen auch Gefühle und eigene Erfahrungen vor, die nicht existieren. Das Ziel dieser Vermenschlichung ist es, das Vertrauen von Menschen zu gewinnen und die Nutzer zu binden. Im Prinzip ist die Nutzung dieser vermenschlichenden Sprache eine Lüge seitens der Hersteller, die diese Maschinen fertigen. Aus menschlicher Sicht ist das ein Problem, weil wir aus der Forschung wissen, dass dadurch Bindung entsteht und Menschen die KI mit einer Person verwechseln, die sie dahinter vermuten. Nutzer werden verwirrt, geraten in Abhängigkeiten und fangen an, den Ratschlägen dieser KIs zu folgen – bis hin zu traurigen Geschichten, wie dem eines Jungen in Florida, der sich umbrachte, weil er sich in eine KI-Gesprächspartnerin verliebt hatte.
"Sprachmodelle dürfen nicht vermenschlicht sprechen, und Roboter sollten langfristig nicht humanoid gestaltet werden. Menschen müssen immer sofort intuitiv begreifen, dass sie es mit einer Maschine zu tun haben."
Leven: Ist diese Regel also die Forderung an Konzerne, die Sprachausgabe der großen Sprachmodelle zu verändern?
Spiekermann: Auf jeden Fall. Wir sehen hier eine rote Linie: Sprachmodelle dürfen nicht vermenschlicht sprechen, und Roboter sollten langfristig nicht humanoid gestaltet werden. Menschen müssen immer sofort intuitiv begreifen, dass sie es mit einer Maschine zu tun haben. Gleichzeitig sprechen die Regeln aber auch den Nutzer selbst an, sich nicht einzubilden, es mit einem menschenähnlichen Wesen zu tun zu haben.
KI und Demokratie
Leven: Ihre vierte Regel heißt: "Garantiert den Erhalt sozialer und demokratischer Kompetenzen." Sie schreiben, die massenhafte Zuspielung von KI-Antworten führe zu einer Reduktion der Urteilskraft. Was meinen Sie damit?
Spiekermann: In der ersten Generation von KI, die in sozialen Medien verwendet wird, werden wir in Blasen gesteckt. Jeder sieht etwas anderes, etwas, das ihm persönlich gefällt. Durch diese Blasenbildung haben Menschen, die sich analog begegnen, keine gemeinsame Informationsbasis mehr und können sich in der realen Welt nicht mehr verständigen. Es kommt zu Konflikten um die Wahrheit und zu dramatischen gesellschaftlichen Polarisierungen. Mit der neuen Generation von KI wie ChatGPT sehe ich enorme Einbrüche der Fähigkeit und des Willens zum Denken, auch bei meinen Studenten. Wir beobachten massenhaft, dass Studenten keine einzige Frage mehr selber beantworten wollen, sondern immer erst das Sprachmodell fragen. Wir an den Bildungsinstitutionen spüren den Druck, uns hier neu aufzustellen.
"Wenn eine ganze Generation nur noch impulsiv schnelle Antworten gibt, ist klar, dass wir bald nicht mehr fähig sein werden, miteinander zu kommunizieren und Konflikte zu bewältigen."
Hoff: Dazu gibt es auch empirische Forschung. Neurowissenschaftler wie Thomas Fuchs oder Gerd Gigerenzer aus unserer Gruppe berichten, dass die durchschnittliche Aufmerksamkeitsspanne von Menschen seit 2012 stark abgenommen hat. Man spricht von cognitive atrophy, also kognitiver Unterernährung, im IT-Jargon auch brain rot genannt. Es gibt Vorderhirnstrukturen, die wie eine Bremse funktionieren, wenn wir misstrauisch werden – man nennt das "kognitive Friktion". Digitale Technologien unterlaufen diese Friktionen, weil sie uns immer schöne, passende und reibungslose Lösungen anbieten. Das hat mittlerweile Spuren in der Gehirnentwicklung hinterlassen. Gehirnstrukturen entwickeln sich zurück oder bilden bei jungen Menschen gar nicht erst richtig aus. Wenn eine ganze Generation diese "Bremsen" nicht mehr hat und nur noch impulsiv schnelle Antworten gibt, ist klar, dass wir bald nicht mehr fähig sein werden, miteinander zu kommunizieren und Konflikte zu bewältigen.
Leven: Ein anderer Appell lautet: "Verhindert Machtkonzentration und garantiert Teilhabe." Das klingt nach einer politischen Forderung. Warum ist das wichtig?
Spiekermann: Aus Sicht der Wirtschaftsinformatik wissen wir, wie wir in Europa Technologie so implementieren könnten, dass wir weniger Abhängigkeiten von US-amerikanischen Tech-Konzernen haben. Das Stichwort hier ist "digitale Souveränität". Wir müssen in Europa eigene Cloud-Services aufbauen. Ein anderer Aspekt: Über 60 Prozent der Satelliten gehören heute SpaceX. Für die gesamte militärische Unabhängigkeit Europas ist das unglaublich gefährlich, da jede Drohne über Satelliten gesteuert wird und wir hier überhaupt keine Unabhängigkeit mehr haben.
Leven: Sie beschreiben dramatische Entwicklungen. Wie lässt sich erreichen, dass solche Regeln nicht nur gelesen, sondern auch umgesetzt werden?
Spiekermann: Seit zweieinhalb Jahrzehnten schauen alle auf den Gesetzgeber, wenn es um die Regulierung der IT-Welt geht. Die zehn Regeln sind das erste Mal, dass wir als Wissenschaftler sagen: Nein, das wird so nicht funktionieren. Jeder Einzelne muss an jedem Tag Entscheidungen treffen, und bisher gibt es dafür keine Handlungsanweisung. Insofern hoffen wir, damit einen Nerv zu treffen.
Leven: Aber ohne gesetzliche Regulierung scheint es doch nicht zu gehen. Die wirtschaftlichen Interessen sind riesig und die Abhängigkeit der Nutzer groß. Überfordert das nicht den Einzelnen?
Sarah Spiekermann: Auch Politiker müssen ja jeden Tag Entscheidungen treffen. Gerade gab es eine Initiative von neun ehemaligen Staats- und Regierungschefs, zehn Nobelpreisträgern und zahlreichen weiteren Persönlichkeiten, die fordern, rote Linien für KI zu definieren. Aber welche Grenzen sollen das sein? Unsere zehn Regeln können einem Politiker zum Beispiel vor Augen führen, dass die rote Linie aus menschlicher, sozialer und demokratischer Sicht sein sollte, dass Maschinen nicht menschenähnlich gebaut werden. Diese Perspektive hören Politiker heute kaum, weil sie von einem Lobbyfeld eingelullt werden. Wir hoffen, dass wir durch diese einfachen, merkbaren Regeln politische Entscheidungen indirekt mitbeeinflussen können.
Private Götzen
Hoff: Die zehn Regeln operieren nicht auf der Ebene von Gesetzesbüchern. Sie sind anschlussfähig an tiefere Schichten unseres kulturellen Gedächtnisses. Die zweite Regel etwa, den Menschen nicht als Vorbild für Maschinen zu missbrauchen, knüpft an das biblische Bilderverbot an. Und die erste Regel, "Du sollst Technik nicht zum Selbstzweck werden lassen", ist im Grunde das erste Gebot: "Du sollst keine Götter neben mir haben." Wenn ich Maschinen zum Götzen mache, fange ich an, den Menschen als Bild dieses Götzen zu konstruieren und ihn an die Maschine anzugleichen.
"Jeder bekommt sozusagen seinen privaten Götzen konstruiert, der ihm die eigene kleine Welt als die gesamte Welt widerspiegelt. Diese Form von Narzissmus wird durch technische Artefakte mit einer historisch beispiellosen Geschwindigkeit verstärkt, was ganz neue Formen von Abhängigkeit erzeugt."
Leven: Ihre erste Regel spricht ausdrücklich von der digitalen Technik als "falschem Gott". Was ist hier die besondere Gefahr im Vergleich zu anderen "Götzen" wie dem Geld?
Hoff: Das Spezifische an digitalen Technologien ist zweierlei. Erstens sind sie immer mit individuellen Benutzerprofilen verbunden. Jeder bekommt sozusagen seinen privaten Götzen konstruiert, der ihm die eigene kleine Welt als die gesamte Welt widerspiegelt. Diese Form von Narzissmus wird durch technische Artefakte mit einer historisch beispiellosen Geschwindigkeit verstärkt, was ganz neue Formen von Abhängigkeit erzeugt – von Suchtverhalten bis hin zu Fear of Missing Out. Zweitens greift dieser narzisstische Spiegelungseffekt auf allen Ebenen der Gesellschaft, vom Individuum bis zu Firmen, und verstärkt Allmachtsphantasien, die keinen Halt mehr in der Realität haben.
Kulturpessimismus?
Leven: Wer vor den Gefahren neuer Technik warnt, bekommt oft den Vorwurf des Kulturpessimismus zu hören. Was antworten Sie darauf?
Hoff: Ich glaube tatsächlich an Fortschritt, möchte aber zwischen Fortschritt und Kulturfatalismus unterscheiden. Im 19. Jahrhundert war Fortschritt mit der Idee verbunden, die Welt besser zu machen. Heute implementieren wir Technologie nicht, weil wir glauben, dass die Welt besser wird, sondern aus Angst, den Anschluss zu verlieren. Da verkehrt sich Fortschritt in einen Automatismus. Davon würde ich ein Verständnis von Technik unterscheiden, das sagt: Es gibt mehrere Wege in die Zukunft. Es geht nicht darum, den Computer abzuschalten, sondern bessere Technologie zu entwickeln. Die Frage ist nicht Fortschritt oder Rückschritt, sondern guter im Unterschied zu schlechtem Fortschritt.
"Ja, wir brauchen Technik, aber wir müssen sie gut bauen und auf Qualität setzen. Ich bin ein Gegner von Geschäftsmodellen, aber kein Gegner von Technik."
Leven: Frau Spiekermann, schlägt Ihnen als Professorin für Wirtschaftsinformatik auch manchmal der Vorwurf entgegen, technik- oder fortschrittsfeindlich zu sein?
Spiekermann: Ja, diese kritische Frage wird mir immer gestellt. Aber ich kann das sofort zurückweisen, da ich in meinem Fachbereich sehr bekannt dafür bin, die ersten technischen Standards für ethische Maschinen entwickelt zu haben. Ich habe den ersten ISO-Standard für ethisches Systemdesign geleitet. Man kennt mich als jemanden, der sagt: Ja, wir brauchen Technik, aber wir müssen sie gut bauen und auf Qualität setzen. Ich bin ein Gegner von Geschäftsmodellen, aber kein Gegner von Technik.
Leven: Sie haben nicht nur die zehn Regeln veröffentlicht, sondern auch eine "Future Foundation" gegründet. Was ist der Zweck dieser Organisation?
Spiekermann: Zunächst ist es ein Verein, ein Zusammenschluss dieser 16 Persönlichkeiten. Das Ziel ist es, in den nächsten Jahren diese zehn Regeln international bekannt zu machen und sie auch anzuwenden. Wir werden uns zum Beispiel eine bestimmte Regel wie die Nicht-Vermenschlichung von Technologie herausnehmen und einen konkreten Vorschlag machen, wie das aussehen könnte. Das ist der Plan.