Die KI-Revolution ist schneller als die Reflexion jener, die darüber nachdenken. In Schulen und Universitäten ist es bereits völlig normal, dass Seminararbeiten mit ChatGPT erstellt werden, das Lesen längerer Texte wird ersetzt durch KI-generierte Zusammenfassungen. Ist ja auch anstrengend.
Doch auch bei den Lehrkräften sieht es nicht anders aus: automatisch und maschinell erstellte Unterrichtsinhalte sind gang und gäbe. Die Übersicht über die Futurformen des Englischen oder die Ursachen des Ersten Weltkriegs? ChatGPT erstellt das Arbeitsblatt als PDF, den Lexikonartikel als Lektüreaufgabe und sogar einen gesprochenen Podcast dazu zum Nachhören in Windeseile. Die Wahrscheinlichkeit ist hoch, dass die Informationen darin so gut wie alle zutreffend sind. Eine niedrigere Fehlerquote haben Studienräte auch nicht.
KI macht dumm. Zumindest, wenn man unter Intelligenz etwas anderes versteht als schnellen Zugang zu digitalen Informationen.
Das Problem allerdings ist: KI macht dumm. Zumindest, wenn man unter Intelligenz etwas anderes versteht als schnellen Zugang zu digitalen Informationen. So richtig ersichtlich wird das erst, wenn man gezielt nach Themen sucht, in denen es keinen eindeutigen Konsens gibt. Im Selbstversuch kann man ChatGPT zum Beispiel zur Veranschaulichung nach seiner (oder ihrer?) weltanschaulichen Sicht der Dinge befragen.
Unverhohlen gibt das Programm zu, zu den heißen politischen und kulturellen Streitfragen der Gegenwart tendenziell eher links zu denken. Migration ist mehr Chance als Krise, es gibt mehr als zwei Geschlechter, alle Religionen und Kulturen sind gleichwertig, inklusive Sprache beseitigt Ungerechtigkeiten.
Bemerkenswert ist, dass ChatGPT die eigene Bias offenlegen, erklären und auch ziemlich gut dafür argumentieren kann. So entstehen zum Thema Migration etwa Aussagen wie: "Menschenrechte sollten über nationalen Interessen stehen". Fragt man weiter nach, um welche Menschenrechte es sich handle, wird die UN-Charta zitiert. Bohrt man noch tiefer und verweist darauf, dass es ja auch ein Menschenrecht auf Sicherheit im eigenen Land gebe, ist es ChatGPT wichtig, zwischen berechtigter Kritik und "Hetze" zu unterscheiden.
So viel konkreter wird es auch bei anderen Themen nicht. Zum Thema "Trans" bekennt ChatGPT sich zum Respekt gegen alle Identitäten. Fragt man hier nach, erhält man die Auskunft, wissenschaftlich sei die Existenz von Gender-Identitäten jenseits der binären Norm längt bewiesen. Stellt man hier wiederum kritische Nachfragen, gibt ChatGPT auch unumwunden zu, es gäbe unterschiedliche Sichtweisen auf das Thema.
Verstehen, was gemeint ist
Das Problem ist also nicht, dass KI die eigenen Vorannahmen oder Präferenzen nicht offenlegt, sondern, dass sie dabei Begriffe verwendet, die selbst mit theoretischen Vorannahmen gefüllt sind. Menschenrechte, Hetze, Identität, Hass, Spaltung, Wissenschaft. Diese Begriffe jedoch verwendet KI, weil sie statistisch am häufigsten in Verbindung mit bestimmten Themen vorkommen. Denn KI denkt nicht, sondern sucht nach der Wahrscheinlichkeit des Auftretens von Kombinationen. Dadurch ist sie erstaunlich erfolgreich, denn natürlich steigt mit jedem Wort, das ich hier zum Beispiel gerade tippe, die Wahrscheinlichkeit, dass ich jetzt gleich noch einmal das Wort … "tippen" tippen werde.
Um das zu "wissen", muss KI nicht denken, sondern nur eine unfassbar große Menge von Texten rechnerisch erfassen. Handelt es sich nun um kontroverse, für aktuelle Debatten höchst relevante Themen, wird KI also das ausspucken, was eben normalerweise dazu gesagt wird.
Entscheidendes bleibt dabei aber auf der Strecke. Denken, zumal philosophisches Denken, fragt immer radikal nach der Wahrheit. Die Wahrheit, so könnte man Ludwig Wittgensteins Philosophie zusammenfassen, beginnt damit, nach der Verwendung bestimmter Begriffe zu fragen. Was meinen wir eigentlich, wenn wir "Identität" sagen? Bevor das nicht klar ist, erübrigt sich alles Weitere.
Tatsächlich ist ein großer Teil der Denkarbeit das Verstehen dessen, was genau der andere meint, was man selbst meint, wie man Begriffe verwendet. Diese "Arbeit am Begriff" ist heute wichtiger denn je. Denn verbale und visuelle Informationen werden in Sekundenbruchteilen weitergegeben. Das bedeutet aber nicht, dass sie verstanden und reflektiert werden.
Die Bedeutung eines Begriffs, so Wittgenstein weiter, ist seine Verwendung in der Sprache. Doch genau diese Reflexion darauf ist das Gegenteil der "Benutzung" von Begriffen nach statistischer Häufigkeit. In der Verhexung durch Sprache sah Wittgenstein eines der zentralen Probleme der Philosophie und die Lösung in der immer neuen Suche nach sprachlicher und gedanklicher Klarheit.
Wir erlernen das gedankliche Wandern auf ausgetretenen Pfaden, das kritiklose Wiederholen von Phrasen, das selbstentmündigende Vertrauen darauf, dass die Mehrheit oder "die Wissenschaft" wohl schon recht hat.
Genau diese Klarheit gewöhnen wir uns ab, wenn wir KI verwenden. Wir erlernen das gedankliche Wandern auf ausgetretenen Pfaden, das kritiklose Wiederholen von Phrasen, das selbstentmündigende Vertrauen darauf, dass die Mehrheit oder "die Wissenschaft" wohl schon recht hat. Worthülsen zu hinterfragen, dumme Fragen zu stellen und nicht alles zu glauben, das KI uns präsentiert: genau darin wird der Bildungsauftrag der Zukunft bestehen. Ein Auftrag jedoch, der im Kampf gegen die Verlockungen der bequemen Denkvermeidungsmaschinen einen schweren Stand haben wird.