Künstliche Intelligenz: Wertvoll unvollkommen Angesichts der Perfektion von KI ist es Zeit, unsere Unvollkommenheit als etwas Schützenswertes hochzuhalten. Von Johannes Lorenz 22.2.2026, Leben / 1 Kommentar Diesen Artikel jetzt lesen! Im Abo Ihr Plus: Zugriff auch auf alle anderen Artikel im Abo-Bereich 4 Hefte + 4 Hefte digital 0,00 € danach 75,40 € für 26 Ausgaben pro Halbjahr + Digitalzugang inkl. MwSt., zzgl. 27,30 € Versand (D) 4 Hefte digital 0,00 € danach 68,90 € für 26 Ausgaben pro Halbjahr im Digitalzugang inkl. MwSt., Im Abo Im Digital-Abo Abo testen Digital-Abo testen Sie haben ein Abonnement? Anmelden Teilen Teilen Whatsapp Mailen Überschrift Artikel-Infos Autor Johannes Lorenz Johannes Lorenz, geboren 1986, Dr. theol., arbeitet als Studienleiter für Theologie und Philosophie im Frankfurter Haus am Dom. Auch interessant Plus 8/2026: 22. Februar 2026 S. 6 Kritischer Umgang mit KI: „Taschenrechner für Wörter“ Von Nina Schmedding Plus 5/2026: 1. Februar 2026 S. 8-9 Theologie und Tierethik: Interview mit Martin M. Lintner Von Martin M. Lintner, Johanna Beck Plus 2/2026: 11. Januar 2026 S. 6 Literatur und Sprache: Die „Tintensonne“ schafft Verbindung Von Michael Alperowitz Diskussion Kommentieren 1 Kommentar Von Michael Bächle am 22.02.2026 Der Beitrag berührt einen wichtigen Punkt: Der Mensch ist mehr als Optimierung. Ich teile die Sorge, dass Technik zum Heilsersatz werden kann. Umso mehr stört mich zweierlei: Erstens die sachliche Unschärfe, mit der "KI" verhandelt wird. Und zweitens, dass die Argumentation am Ende eher kulturphilosophisch bleibt, statt ausdrücklich christologisch profiliert zu werden. Beides ist riskant. Wer KI nicht versteht, wird leicht entweder ihr unreflektierter Apologet oder ein unreflektierter Apokalyptiker. Kirchliche Rede über KI braucht deshalb Sachkenntnis und begriffliche Disziplin. Sie muss christliche Hoffnung bezeugen und dort, wo es nötig ist, auch klar verkünden. Vor allem aber scheint mir: Der Begriff "KI" wird im Beitrag wie eine begriffliche Soße über sehr verschiedene technische Ideen gegossen, die in der IT diskutiert werden. Was unter "KI" erscheint, reicht implizit von Automatisierung über Datenökonomie bis hin zu biotechnischen oder medizin-technischen Zukunftsbildern. Diese Bündelung verleiht der Argumentation Wucht, aber sie verliert an Trennschärfe: Wir können dann kaum noch prüfen, welche Technik wofür steht, welche Chancen sie tatsächlich eröffnet und welche Risiken sie real mit sich bringt. Gerade deshalb ist begriffliche Disziplin nicht Nebensache, sondern Voraussetzung jeder verantwortlichen ethischen und theologischen Urteilsbildung. Diese begriffliche Disziplin beginnt bei unserer Sprache. In der öffentlichen Rede über KI sind Worte wie "denken", "verstehen", "entscheiden" fast unvermeidlich. Für die theologische Diskussion ist aber entscheidend: Das sind in der Informatik mehr oder weniger sinnvolle Hilfsbegriffe für komplexe Rechen- und Optimierungsprozesse. Es sind keine Aussagen über Bewusstsein, Intentionalität oder personale Freiheit. Wer das missversteht, gerät in eine Diskursfalle: Aus Funktionsbeschreibungen werden unbemerkt Subjektzuschreibungen und damit ein Kategorienfehler. Dann behandeln wir ein statistisch arbeitendes Werkzeug wie ein handelndes Gegenüber. So entstehen falsche Alternativen ("die KI rettet" vs. "die KI zerstört"), die an der Sache vorbeigehen. Dieser Kategorienfehler zeigt sich besonders bei generativer KI, also großen Sprachmodellen. Solche Systeme erzeugen Texte, indem sie aus sehr großen Datenmengen wahrscheinliche Fortsetzungen berechnen. Sie haben keinen Weltbezug im personalen Sinn; sie "wissen" nicht, wovon sie sprechen, sondern modellieren Sprachmuster. Zugespitzt kann man daher von einem "stochastischen Papagei" sprechen: beeindruckend in der Nachbildung von Redeformen, aber ohne Gewissen, ohne Intentionalität, ohne Verantwortung. Der Punkt ist nicht, KI kleinzureden, im Gegenteil: Gerade weil die Simulation sprachlich so überzeugend ist, ist die Versuchung groß, ihr eine Autorität zuzuschreiben, die ihr nicht zukommt. Damit hängt eine zweite Klärung zusammen: Was wir hier erleben, sind Simulationen, im besten Fall Emulationen einzelner Leistungen, aber keine Realisationen menschlicher Lebensform. Simulation ahmt Wirkungen nach; Emulation kann Funktionsweisen nachbilden; Realisation aber wäre das wirkliche personale Vollziehen von Verstehen, Wollen, Verantworten. Wer Sprachsimulation mit Personsein verwechselt, verschiebt das Zentrum der ethischen Debatte: weg von Macht, Verantwortung, Daten und Kontrolle, hin zu einem mythologischen Drama über "Maschinenmenschen", wie es transhumanistische Erzählungen nahelegen. Kritik wird dann entweder unnötig apokalyptisch oder naiv apologetisch. Darum sollte man auch nicht von "der KI" im Singular sprechen. Es gibt schwache KI: Systeme für eng umrissene Aufgaben (Texterstellung, Übersetzung, Mustererkennung, Prognosen, Assistenz in Diagnostik und Dokumentation). Und es gibt die Idee einer sogenannten starken KI (allgemeine, menschenähnliche Intelligenz), die bislang nicht realisiert ist. Sie ist eher ein theoretisches Forschungsprogramm, das außerhalb der Informatik nicht selten zu einem säkularen Heilsnarrativ überhöht wird; in der öffentlichen Apologetik erscheint es bisweilen als quasi zwangsläufiger nächster Schritt und als in nächster Zukunft erreichbar. Der Artikel selbst weist dabei korrekt auf einen gewissen rhetorischen Überschuss mancher Zukunftsbilder hin; umso wichtiger ist es, die Begriffe zu sortieren und zwischen realen Anwendungen und ideologischer Aufladung zu unterscheiden. Ebenso unterscheiden sich Anwendungsfelder fundamental: In der Medizin kann KI Leid mindern und Ressourcen entlasten. Das ist nicht Heilsersatz, sondern kann Ausdruck professioneller Nächstenliebe sein. In Verwaltung und Wirtschaft geht es vor allem um automatisierte Entscheidungsvorbereitung und Priorisierung - etwa bei Leistungsgewährung, Risikobewertung, Kredit- oder Personalauswahl - und damit um Fairness und nachvollziehende Erklärbarkeit. In Bildung und Medien um Wahrhaftigkeit, Abhängigkeit und Manipulation. Im Sicherheitsbereich um besonders hohe Risiken usw. Eine pauschale Rede von KI verstellt diese Unterschiede: Sie bündelt unterschiedliche Techniken und Ebenen unter einem Schlagwort und ist damit ein schwerer Kategorienfehler, der die notwendige Urteilsfähigkeit blockiert. Theologisch wird der Artikel dort unscharf, wo "Imperfektibilität" zugleich als "erlösungsbedürftig" und als "gut und richtig, wertvoll und schützenswert" erscheint. Auch hier hilft Kategorienklarheit. Endlichkeit, Verletzlichkeit und Angewiesenheit gehören zur Schöpfungswirklichkeit. Sünde ist nicht identisch mit Endlichkeit; sie ist Beziehungsbruch, Entfremdung, Schuld. Wenn man diese Ebenen vermischt, erscheint alles Unvollkommene leicht als ein technisches Problem und Erlösung rutscht stillschweigend in die Logik von Optimierung und Fehlerbeseitigung. Gerade in einer Debatte, die zwischen Technikromantik und Technikpanik pendelt, ist die Aufgabe der Kirche nicht zuerst Alarmismus oder Apologie, sondern christliche Hoffnung zu bezeugen und sie dort, wo es nötig ist, auch klar zu verkünden: Heil ist Geschenk Gottes, nicht Produkt technischer Machbarkeit. Freiheit und Individualität sind hohe Güter. Christlich gesprochen gewinnen sie jedoch ihre letzte Tiefe nicht aus Selbstoptimierung, sondern aus der Beziehung zu Gott, die Christus eröffnet. Technik kann lindern, unterstützen, verbessern. Sie kann nicht erlösen. Christus erlöst nicht, indem er den Menschen optimiert, sondern indem er ihn versöhnt und ihm neue Zukunft eröffnet. Und gerade weil KI so gut simuliert, muss die Kirche umso klarer sagen: Person ist nicht Output-Qualität. Gewissen ist nicht Statistik. Verantwortung ist nicht delegierbar. Erlösung ist nicht Optimierung. Statt Apokalypsen oder ideologischer Euphorie braucht es Kriterien. Ein kurzer Kriterienkatalog könnte genügen: 1. Dient der Einsatz der Menschenwürde oder nur der Effizienz? 2. Bleibt Verantwortung personal zurechenbar (statt: "das System hat entschieden")? 3. Gibt es Transparenz über Daten, Ziele, Grenzen und Fehlerprofile? 4. Werden die Schwachen vor Bias, Ausschluss, Überwachung geschützt? 5. Fördert der Einsatz Wahrhaftigkeit oder erleichtert er Täuschung und Desinformation? 6. Stärkt er Freiheit oder erzeugt er Abhängigkeit und Bequemlichkeit? 7. Bleibt Technik Werkzeug oder wird sie zum Heilsersatz aufgeladen? So bleibt die Diskussion frei von Kategorienfehlern: Wenn wir wissen, worüber wir beim Begriff "KI" sprechen, verliert sie den Anschein des Göttlichen. Dann wird aus dem Heilsversprechen ein Werkzeug mit Möglichkeiten und Grenzen; aus der Angst wird ein nüchternes Urteil. Dann kann die theologische Debatte wieder sauber unterscheiden: zwischen dem, was Technik leisten kann, und dem, was sie nicht leisten kann. Deshalb muss die Kirche das Evangelium dort mit begrifflicher Klarheit verkünden, wo sich Heilsfragen an Technik hängen: wo technische Machbarkeit als letzte Hoffnung gehandelt wird und wo Heil, Sinn und Schuldvergebung an Optimierung, Kontrolle und Fehlerlosigkeit gebunden werden. Mein Fazit aus fast vierzig Berufsjahren in der Informatik: Begriffsklarheit nimmt KI den Mythos. Wer weiß, was sie ist, erwartet von ihr nicht, was nur Gott geben kann. Aber bitte: das sind natürlich nur meine "two cents". Antworten Schreiben Sie eine Antwort Angemeldet kommentieren Als Gast kommentieren Anmeldung E-Mail * Passwort * Passwort vergessen? Angemeldet bleiben Anmelden Diese Angaben benötigen wir von Ihnen. Ihre E-Mail-Adresse zeigen wir nicht an. Wenn Sie nicht möchten, dass Ihr Name angezeigt wird, wählen Sie bitte zusätzlich einen Anzeigenamen, den wir dann anstelle Ihres Namens veröffentlichen. E-Mail-Adresse * Vorname * Nachname * Anzeigename ** Kommentar * Ja, ich möchte den kostenlosen CiG-Newsletter abonnieren und willige in die Verwendung meiner Kontaktdaten zum Zweck des E-Mail-Marketings durch den Verlag Herder ein. Den Newsletter oder die E-Mail-Werbung kann ich jederzeit abbestellen. Ich bin einverstanden, dass mein personenbezogenes Nutzungsverhalten in Newsletter und E-Mail-Werbung erfasst und ausgewertet wird, um die Inhalte besser auf meine Interessen auszurichten. Über einen Link in Newsletter oder E-Mail kann ich diese Funktion jederzeit ausschalten. Weiterführende Informationen finden Sie in unseren Datenschutzhinweisen. Der Schutz Ihrer persönlichen Daten ist uns wichtig. Hier finden Sie unsere Hinweise zum Datenschutz. Kommentieren Wir freuen uns über Ihren Kommentar Angemeldet kommentieren Als Gast kommentieren Anmeldung E-Mail * Passwort * Passwort vergessen? Angemeldet bleiben Anmelden Diese Angaben benötigen wir von Ihnen. Ihre E-Mail-Adresse zeigen wir nicht an. Wenn Sie nicht möchten, dass Ihr Name angezeigt wird, wählen Sie bitte zusätzlich einen Anzeigenamen, den wir dann anstelle Ihres Namens veröffentlichen. E-Mail-Adresse * Vorname * Nachname * Anzeigename ** Kommentar * Ja, ich möchte den kostenlosen CiG-Newsletter abonnieren und willige in die Verwendung meiner Kontaktdaten zum Zweck des E-Mail-Marketings durch den Verlag Herder ein. Den Newsletter oder die E-Mail-Werbung kann ich jederzeit abbestellen. Ich bin einverstanden, dass mein personenbezogenes Nutzungsverhalten in Newsletter und E-Mail-Werbung erfasst und ausgewertet wird, um die Inhalte besser auf meine Interessen auszurichten. Über einen Link in Newsletter oder E-Mail kann ich diese Funktion jederzeit ausschalten. Weiterführende Informationen finden Sie in unseren Datenschutzhinweisen. Der Schutz Ihrer persönlichen Daten ist uns wichtig. Hier finden Sie unsere Hinweise zum Datenschutz. Kommentieren
Johannes Lorenz Johannes Lorenz, geboren 1986, Dr. theol., arbeitet als Studienleiter für Theologie und Philosophie im Frankfurter Haus am Dom.
Plus 8/2026: 22. Februar 2026 S. 6 Kritischer Umgang mit KI: „Taschenrechner für Wörter“ Von Nina Schmedding
Plus 5/2026: 1. Februar 2026 S. 8-9 Theologie und Tierethik: Interview mit Martin M. Lintner Von Martin M. Lintner, Johanna Beck
Plus 2/2026: 11. Januar 2026 S. 6 Literatur und Sprache: Die „Tintensonne“ schafft Verbindung Von Michael Alperowitz