Künstliche IntelligenzZum aktuellen Heft von COMMUNIO

Zwischen Fortschrittsversprechen und Kontrollverlust: Der KI-Boom wirft neue Fragen nach Freiheit, Wahrheit und Verantwortung auf.

Person und Laptop
© unsplash

Die zunehmende Durchdringung von immer mehr Lebensbereichen mit verschiedenen Formen Künstlicher Intelligenz (KI) gehört zu den wichtigsten Megatrends unserer Zeit, deren Folgen bislang kaum realistisch abzuschätzen sind. Auch wenn sich verschiedene wissenschaftliche Disziplinen und politische Institutionen seit einiger Zeit darum bemühen, Standards für einen verantwortlichen Umgang mit dieser sich vor allem im Ausland rasant entwickelnden Technologie zu etablieren, sind wir von einem überzeugenden regulatorischen Rahmen für die Anwendung dieser neuen Instrumente noch weit entfernt. Daher dürfte es hilfreich sein, dass die Beiträge dieses Heftes ohne jeden Anspruch auf Vollständigkeit versuchen, sich einigen besonders wichtigen Aspekten dieses vielschichtigen Phänomenbestandes anzunähern.

Im ersten Beitrag erläutern der französische Statistiker Jean-David Fermanian und die Physikerin Isabelle Rak zunächst die methodischen Grundlagen verschiedener KI-Tools, um diese neuartigen Werkzeuge zu «entmystifizieren» (6). Gerade weil die verschiedenen Instrumente diskriminativer und generativer KI von vielen Nutzern als Black Box wahrgenommen würden, sei es insofern wichtig, die jeweiligen Funktionsweisen genauer zu betrachten, als künstliche und menschliche Intelligenz einer ‹radikal unterschiedlichen Methode› folgten. Trotz der beeindruckenden Geschwindigkeit, mit der KI-Modelle riesige Datenmengen verarbeiten können, komme es entscheidend darauf an, auch auf die Grenzen in Gestalt von Halluzinationen, Verzerrungen, der kurzen Lebensdauer einschlägiger Speichermedien, der Umwelt- und Energieproblematik sowie der mangelnden Zugänglichkeit der beteiligten Algorithmen hinzuweisen. Auch wenn letztere in manchen Bereichen kein unüberwindliches Hindernis darstelle, sei in «vielen Anwendungsbereichen wie der nuklearen Sicherheit, der Rüstungsindustrie, der Finanzmarktaufsicht usw. […] häufig ein Kompromiss zwischen Vorhersagekraft und Interpretierbarkeit erforderlich» (14). Letztendlich fordern sie uns zur Wachsamkeit auf, da KI-Tools auch «zu einem Instrument der Verdummung, zu einer Form der Barbarei werden [können], wenn sie nicht ordnungsgemäß von einer menschlichen Intelligenz überprüft, korrigiert und kontrolliert werden» (19). Gerade deswegen sei es im gegenwärtigen KI-Boom so notwendig, an das zu erinnern, was authentisch menschlich sei: nämlich «Freiheit, Urteilsvermögen, kritischer Geist, Verantwortung gegenüber anderen und […] Respekt für und Liebe zu unserer eigenen Menschlichkeit» (21).

Der Theologe Lukas Brand lotet in seinem Beitrag die verschiedenen Möglichkeiten und Herausforderungen aus, die aus der zunehmenden Verbreitung insbesondere sprachmodell-basierter Chatbots für das menschliche Miteinander entstehen. Den vielfältigen Chancen eines KI-Einsatzes zur Verbesserung der Gesundheitsversorgung, der Gestaltung der Arbeitsumgebung, der Individualisierung von Produkten und Dienstleitungen sowie der Entscheidungsunterstützung stünden eben auch gravierende Herausforderungen gegenüber, die von verschiedenen Verzerrungseffekten durch einseitige Trainingsdaten und der daraus resultierenden Gefahr der gesellschaftlichen Diskriminierung über neue Formen der biometrischen Überwachung bis hin zur massenhaften Erzeugung und Verbreitung von Falsch- und Desinformationen reichten. Vor allem die sukzessive Substitution sozialer Beziehungen durch KI-Interaktionen könne zu «Suchtverhalten, gesteigerter Einsamkeit und selbstgefährdendem Verhalten» (31) führen. Da die «uneingeschränkte Nutzung von Sprachmodellen in nicht näher spezifizierten Kontexten» letztlich einem «großen, unbegleiteten Sozialexperiment» (ebd.) gleiche, sei im Blick auf die oligopolartige Anbieterstruktur von KI-Produkten nicht nur eine «Dezentralisierung und Demokratisierung des KI-Ökosystems» (32) wünschenswert, es bedürfe auch einer kritischen Reflexion des «vorrangig funktionalistischen Paradigmas der Informatik» (ebd.), das einseitig auf die technische Machbarkeit ausgerichtet sei.

Um die anthropologischen Hintergründe der aktuellen KI-Debatten geht es im Beitrag des Innsbrucker Dogmatikers Johannes Hoff. Angesichts der auffallenden Neigung vieler trans- und posthumanistischer Vordenker des aktuellen KI-Booms zu einem primär defizit-orientierten Menschenbild und einer negativen Wahrnehmung menschlicher Körperlichkeit sei es geradezu unsere «moralische Pflicht, die Selbstwidersprüche, Begriffsverwirrungen und irrationalen metaphysischen Hintergrundannahmen veralteter Computeranthropologien sachkundig aufzudecken» (36). Auch fordert er, die «idolatrischen Praktiken der Anbetung und Selbstverherrlichung zu demaskieren» (38), die s. E. darin bestehen, dass wir nicht nur ‹Götzen herstellen, sondern zunehmend auch dadurch von ihnen hergestellt werden›, dass wir menschliches Denken und Erleben immer stärker der maschinellen Datenverarbeitung angleichen. Gegenüber den Fehlentwicklungen einer «individualistisch ausgedünnten Subjektphilosophie, deren Freiheitsenthusiasmus unseren Hang zu geistiger und moralischer Hybris aus dem Blick geraten ließ» (39), sei heutzutage insofern wieder verstärkt für eine «körperleiblich qualifizierte[…], ganzheitliche[…] Anthropologie» zu plädieren, als die «Verantwortung des Denkens mehr denn je darin [besteht], zu kultivieren, was menschliche Intelligenz von ‹Maschinenintelligenz› unterscheidet» (48).

Der Wiener Sozialethiker Alexander Filipović reflektiert in seinem Text über den Zusammenhang von Bildung und Medien, um der wachsenden Teilhabeprobleme in einer von KI-Technologien gekennzeichneten Welt ansichtig zu werden, die viele Implementierungen von KI-Produkten kennzeichnen. Ausgehend von der bekannten Einsicht, dass «Technik und Medien niemals neutral sein können und […] fundamentale Bedingungen von Erkenntnis darstellen» (54), wird die Frage aufgeworfen, welche Bildungsidee in den neuen KI-Technologien repräsentiert sei, um dann zu erkunden, welche «Möglichkeiten zur Teilnahme […] in einer KI-Welt, aber auch zur Mitgestaltung der KI-Welt» (58) diese jeweils vermitteln.

Die Ethikerin Carina Blatt-Ratzka rekonstruiert in ihrem Beitrag die vielfältigen Anwendungen von KI im Medizinsystem, wobei sich in Forschung, Krankenversorgung und Organisation jeweils ganz unterschiedliche Herausforderungen stellten. Einerseits böten KI-Instrumente ein enormes Potential für die Beschleunigung von Forschungsprozessen und die Verbesserung der Patientenversorgung – etwa durch neue Möglichkeiten präventiver Risikobewertung, Diagnostik und Therapieplanung. Andererseits fehlten in vielen Bereichen noch immer klare Verantwortungszuweisungen zwischen Herstellern, medizinischem Personal und Institutionen sowie überzeugende Standards für Transparenz- und Fairnessanforderungen. Auch verändere der Einsatz von KI die Bedingungen für die ‹informierte Zustimmung› (informed consent) des Patienten, dessen Autonomie «weniger als isolierte Individualentscheidung zu verstehen [sei] denn als Praxis, die durch institutionelle, technische und professionelle Rahmenbedingungen geprägt» (65) werde. Obwohl der vielfältige KI-Einsatz in der Medizin «keinen abrupten Bruch mit bestehenden Formen ärztlicher Praxis» markiere, trage er doch zu einer «Verschiebung ihrer epistemischen und normativen Grundlagen bei» (67), so dass es in den nächsten Jahren entscheidend darauf ankomme, «KI als Teil einer verantwortungsvoll gestalteten medizinischen Praxis zu verankern, die auf institutionelle Governance, qualifizierte Anwendung und transparente Verantwortungszuweisungen setzt» (68).

Die Wiener Wirtschaftsinformatikerin Sarah Spiekermann geht der Frage nach, unter welchen Bedingungen KI «ihr eigentliches Fortschrittspotenzial einlösen kann» (70). Die epochale Aufgabe bestehe darin, einen «kraftvollen digitalen Raum [zu] schaffen, der ebenso ‹gut› […] und vertrauenswürdig, inspirierend und nährend» (71) sei, wie es im Mittelalter die gotischen Kathedralen waren. Eine nüchterne Analyse der jüngeren KI-Entwicklung zeige dabei zweierlei: Zum einen, «dass mit heutigen Innovationsprozessen und ökonomisch-kulturellen Rahmenbedingungen keine Aussicht darauf besteht, dass KI diesem Anspruch gerecht wird»; und zum andern, «dass uns durchaus die Grundlagen dafür zur Verfügung stünden, das zu ändern» (71). Solange die KI-Entwicklung vorrangig an den Werten des Geldes, der Effizienz und der Geschwindigkeit bestimmt werde, bleibe sie einer rein unternehmerischen, auf Kosteneinsparungen fixierten Innovationsdynamik verhaftet, die nicht erwarten lasse, «dass die Technologie der Gesellschaft den Fortschritt bringen wird, der möglich wäre» (76). Nur eine konsequente Orientierung an hohen Werten führe zu der Einsicht, «dass KI der 2. Generation (also Transformer Technologie) anders gebaut werden muss, als wir das gedankenlos und ohne Ethos bisher mit KI der 1. Generation (Social Media) getan haben» (79).

Die vielfach belegte Erkenntnis, dass KI-Instrumente nicht fehlerfrei arbeiten, sondern nur andere Fehler als Menschen machen, wird oftmals als vorrangig technisches Problem behandelt. Dass bestimmte Verzerrungen jedoch auch das Ergebnis bewusster Manipulation sein können, zeigen der Kölner Sozialethiker Elmar Nass und sein Mitarbeiter Nicolas Klein anhand einer Untersuchung, die in exemplarischer Form die Resultate dreier Chatbots – ChatGPT (5.1 Modell) von OpenAI, DeepSeek AI (R1-Modell) sowie Grok 4 von xAI – zu Fragen nach Gott und Kirche auswertet. Dabei zeige sich, dass die jeweiligen Verzerrungen «systematisch bedingt» (93) seien. Folglich ist «damit zu rechnen, dass die Einstellungen der Menschen zu Glaubensfragen durch verdeckte Meinungsbildung bzw. Manipulation solcher Bots beeinflusst werden» (94), worauf sich Theologie und Pastoral einstellen sollten.

In seiner Besprechung von Claudia Paganinis Buch «Der neue Gott: Künstliche Intelligenz und die menschliche Sinnsuche» attestiert Eckhard Nordhofen der Autorin zwar, dass es ihr gelinge, dem Leser «eine informative Nachhilfestunde in Religionsgeschichte» (96) zu erteilen, doch erweise sich ihre zentrale Behauptung vor allem deswegen als wenig überzeugend, weil sich Gott als die «schöpferische Wirklichkeit der Wirklichkeiten […] nicht in den Käfig des Funktionalismus einfangen» (97) lasse. Trotzdem könnten die vorgetragenen Thesen insofern einen besonderen «Kollateralnutzen» haben, als sie «ein überraschend neues Licht auf die Inkarnation» werfen: «Am Leib des Mensch gewordenen Gottes und den Leibern derer, die sich ihn einverleiben, scheitert die Simulationskraft der Algorithmen» (98).

Die in diesem Heft versammelten Beiträge bestätigen einmal mehr, dass im Blick auf den äußerst vielgestaltigen Einsatz von KI in immer mehr Handlungsfeldern der Teufel buchstäblich im Detail steckt, so dass es nicht mehr ausreicht, im Stil der Pionier- und Anfangsphase der KI-Entwicklung auf großflächige Allerweltsprobleme dieser sich immer rasanter ausbreitenden Technologie hinzuweisen.

COMMUNIO Hefte

COMMUNIO im Abo

COMMUNIO will die orientierende Kraft des Glaubens aus den Quellen von Schrift und Tradition für die Gegenwart erschließen sowie die Vielfalt, Schönheit und Tiefe christlichen Denkens und Fühlens zum Leuchten bringen.

Zum Kennenlernen: 1 Ausgabe gratis

Jetzt gratis testen