Ethische Problemzonen der Künstlichen IntelligenzNur Science-Fiction?

Technologien der Künstlichen Intelligenz werden mehr und mehr in unser Leben eindringen. Die damit verbundenen Transformationen des menschlichen Selbstverständnisses müssen reflektiert werden – eine Aufgabe, der sich die Theologie stellen sollte.

Künstliche Intelligenz
© Pixabay

Die Technologie, die man etwas unbeholfen als „Künstliche Intelligenz“ bezeichnet, ist längst Teil unseres Alltags. Navigationssoftware, Sprachassistenten und Empfehlungssysteme nutzen viele Menschen tagtäglich. Über die Ebene der Alltagsverwendung hinaus tauchen im Kontext Künstliche Intelligenz allerdings Fragen auf, die tiefer reichen. Denn KI-Systeme fordern unser menschliches Selbstverständnis heraus: In welchem Verhältnis stehen maschinelle und menschliche Intelligenz? Wie treffen wir zukünftig Entscheidungen und wer (oder was) verantwortet diese? Was ist das entscheidend Menschliche, wenn KI-Systeme besser fahren, Diagnosen treffen oder die geduldigeren Pfleger sind? Wie verhält sich die zumindest potenzielle All-Macht eines KI-Systems zu unserer Gottesvorstellung? – Diese Fragen betreffen die menschliche Selbst- und Weltdeutung und damit auch das Reden von Gott. Welche Wirklichkeit zeigt sich uns im anbrechenden KI-Zeitalter und wie lassen sich in dieser Wirklichkeit die Bedeutung menschlicher Existenz und die Rede von Gott erhellen? Diese Fragen sind es, die Technologien der Künstlichen Intelligenz für die Theologie und für die (theologische) Ethik bedeutsam machen.

Der Ausdruck KI bezeichnet dabei höchst unterschiedliche Dinge und wird sehr verschieden gebraucht. Die Europäische Kommission hat ihn im Jahr 2018 wie folgt definiert: „Künstliche Intelligenz (KI) bezeichnet Systeme mit einem ,intelligenten‘ Verhalten, die ihre Umgebung analysieren und mit einem gewissen Grad an Autonomie handeln, um bestimmte Ziele zu erreichen. KI-basierte Systeme können rein softwaregestützt in einer virtuellen Umgebung arbeiten (zum Beispiel Sprachassistenten, Bildanalysesoftware, Suchmaschinen, Sprach- und Gesichtserkennungssysteme), aber auch in Hardware-Systeme eingebettet sein (wie moderne Roboter, autonome Pkw, Drohnen oder Anwendungen des ,Internet der Dinge‘).“

Erfolge der Maschinen beim Lernen

Forschungen zu KI und auch funktionierende Systeme wie beispielsweise Schachcomputer gibt es schon lange. KI-Systeme haben in den letzten Jahren allerdings stark an Bedeutung gewonnen. Dies liegt vor allem an den großen Datenmengen, die durch die Digitalisierung von Informationsübermittlung jeglicher Art immer umfänglicher vorliegen und die für die maschinelle Verarbeitung nun zur Verfügung stehen. Immer größere Rechenleistung, die Vernetzung von Informations- und Kommunikationstechnologien, spezielle Hardwarekomponenten (etwa Sensoren) und Innovationen und Weiterentwicklungen von KI-Algorithmen treten hinzu und haben zur Folge, dass KI-Systeme immer stärker in vielen Bereichen der Gesellschaft eingesetzt werden. Vor allem Erfolge im Bereich des maschinellen Lernens und in der Robotik führen dazu, dass KI-Technologie spätestens seit den Erfolgen des Computerprogramms „AlphaGo“ beziehungsweise „AlphaZero“ 2015/2017 von Google „DeepMind“ überall Diskussionsgegenstand ist.

Digitalisierung, Daten, Algorithmen und Vernetzung sind also die zentralen Schlagworte, die mit KI-Systemen in Verbindung stehen. Dies macht deutlich, dass wir es mit einer Weiterentwicklung von digitaler Technologie und Datenanalyse zu tun haben. Die Ergebnisse sind zum Teil erstaunlich und die Systeme übertreffen das dem Menschen Mögliche oft bei weitem. Allerdings sind die Systeme dem Menschen nur dort überlegen, wo Problemstellungen, benötigte Daten und Erfolgsmaße genau definiert oder erkannt werden können, wie etwa beim Schach. Diese Art von KI-Systemen bezeichnet mal als „schwache KI“.

Der Mensch verfügt aber über eine allgemeine Intelligenz, die sich auch in unklaren Situationen und Problemstellungen bewährt, etwa in der Interaktion mit der Umwelt, für die Sinneswahrnehmung, Erfahrung und komplexe Beweglichkeit gefordert ist. Eine KI mit einer solchen allgemeinen Intelligenz, man spricht hier von „starker KI“, gibt es heutzutage nicht und nur wenige Forscher und Forscherinnen behaupten, dass eine solche KI überhaupt möglich ist. Auch wenn also KI-Systeme immer selbständiger agieren können, wird auch ein (bis heute ebenfalls nicht verfügbares) komplett autonomes Fahrzeug eben nur fahren können.

Die Lieblingsfrage von Philosophen und Feuilletonisten, ob eine „Künstliche Intelligenz“ ein Bewusstsein hat oder überhaupt haben könnte, spielt bei all diesen Fragen keine Rolle. Vielfach scheinen für solche Debatten eher Science-Fiction-Filme den Rahmen vorzugeben, als technische Möglichkeiten. Damit ist nichts gegen die Science-Fiction gesagt, die vor allem im Bereich der ethischen Fragen oft hervorragende Beiträge liefert, die im Modus „Was wäre wenn?“ der Gesellschaft helfen, schon heute über moralische Probleme unsicherer Zukünfte, unter Umständen aber auch über bereits heute bestehende Handlungsprobleme zu reflektieren.

Die Probleme liegen aber nicht im Umgang mit bewusstseinsfähigen humanoiden Robotern (die es nicht gibt und vielleicht auch nie geben wird) oder in der abstrakten Möglichkeit, Gehirne in Computer hochzuladen (mind upload). Die interessanten und wirklichen Probleme liegen darin, wie die Menschheit mit der von ihr geschaffenen machtvollen Technik umgeht, die ja rekursiv wiederum den Rahmen dafür setzt und erweitert, was der Mensch ist, sein kann und möchte, wie er sich in der Welt also selber versteht.

Dass Technik in diesem Sinne niemals neutral sein kann, sondern immer schon an der Frage nach dem Menschen mitformuliert, ist für Technik- und Medienphilosophen, wie man so schön sagt, ein no-brainer. Politiker und Wirtschaftsvertreter allerdings verharren vielfach in der Ansicht, jede Technik sei wie ein Hammer, es komme nur darauf an, ihn für das Gute zu verwenden. Das ist eine gefährlich naive Einstellung, wie schon Marshall McLuhan in den Sechzigerjahren in „Understanding Media“ hervorgehoben hat.

Damit liegen Fragen danach auf dem Tisch, welche Bedeutung der menschlichen Existenz im KI-Zeitalter zugemessen wird und welche Auswirkungen dies auf des Menschen religiöse Bezüge und seinen Gottesglauben hat. Wenn Technik in dieser Weise als konkretes Vorzeichen der Frage des Menschen nach sich selbst und nach Gott verstanden werden muss, betrifft dies selbstredend auch die Theologie.

Die zentrale theologische Aufgabe im Kontext der Technologien Künstlicher Intelligenz besteht darin, die Transformationen des Humanen, die mit KI-Technologien so augenfällig werden, reflexiv einzufangen und auszudehnen auf die Frage, was es unter diesen Bedingungen bedeutet, von Gott zu sprechen.

Diese Transformationen des Humanen zeigen sich in einigen Themenbereichen besonders. Unsere Interaktionen in Arbeit und Alltag laufen zunehmend mit KI-Systemen ab. Gerade angesichts der Mensch-Maschine-Interaktion (MMI) stellen sich spezielle Herausforderungen. Wenn wir die Bedeutung personaler und sozialer Interaktion für die Identitätsbildung des Menschen und die Zunahme an MMI in Arbeit und Alltag in Rechnung stellen, erscheint die Frage statthaft, wie sich dies auf menschliche Entwicklung und Selbsterfahrung auswirken kann.

Unsere Sprache mag sich ändern, wenn wir mit Sprachassistenzsystemen im smart home, bei der Computerarbeit oder im Auto reden. Kann sich ein Mensch vielleicht sogar liebevoll umsorgt fühlen, wenn ihm von einem Pflegeroboter Essen angereicht wird? Könnte sich der Mensch etwa an einer Fertigungsmaschine nurmehr als Gehilfe eines smarten Gerätes erfahren? Um die Widerstandsfähigkeit gegenüber einer Entscheidung eines KI-Systems, etwa eine Diagnose mit Therapievorschlag, ist es vielleicht angesichts seiner hochwahrscheinlichen Korrektheit nicht gut bestellt.

Alle diese Themen und Fragen haben viele ethische Aspekte, die wichtige Gegenstände auch der theologischen Ethik sind. Dabei kommt es hier nicht zuerst auf gut oder schlecht in moralischer Hinsicht an, sondern auf den noch grundlegenderen Aspekt, wie sich das menschliche Selbstverständnis unter Umständen verändern kann, wenn der Mensch vermehrt mit KI-Systemen, vor allem mit Robotern als verkörperter KI, interagiert.

Ein zweiter Themenbereich, der die Transformationen des Humanen besonders in den Blick bringt, ist die Bewegung des Transhumanismus. Bei Ray Kurzweil, einem US-amerikanischen Vordenker des Transhumanismus und Chefingenieur bei Google, verbinden sich beispielsweise die Ideen einer künstlichen Superintelligenz und die Selbstüberschreitung des Menschen durch KI-Technologie. KI-gesteuerte brain-computer interfaces sollen die physische Verbindung von Mensch und Technik ermöglichen. Prothetik und Implantate lassen den Menschen zu cyborgs werden. Auch hier geht es nicht zuerst um die Verdammung solcher Technologien, auch wenn der Transhumanismus als pseudowissenschaftliche Bewegung mit seinen zum Teil kruden Annahmen kritisiert werden muss. Denn die Verbindung von menschlicher Physis und Maschine inklusive KI kann natürlich zu seinem Wohl sein, etwa bei Herzschrittmachern oder Cochlea-Implantaten. Hier geht es wiederum um die Transformation des menschlichen Selbstverständnisses, und dabei besonders um die Transformation der menschlichen körperlichen Grenzen. Auch dies ist moralisch zunächst neutral, da es sicher auch Gründe gibt, alte Körperverständnisse anthropologisch zu hinterfragen. Indem der Transhumanismus religiöse Ideen von Unsterblichkeit und All-Macht aber technisiert und damit immanentisiert, werden die Herausforderungen, die im Schnittfeld von der Transformation des Humanen und den religiösen Bezügen des Menschen liegen, überdeutlich.

Eine letzte hier skizzierte Ebene der Transformation des Humanen liegt im Bereich der Erkenntnis und des menschlichen Wissenkönnens. Paolo Benanti, Dozent unter anderem für Technikethik an der Gregoriana in Rom, hat dafür ein treffendes Bild gefunden: Teleskop und Mikroskop auf der Basis von konkaven Linsen waren die Technologien, mit denen wesentliche wissenschaftliche Entdeckungen im 17. und 18. Jahrhundert gemacht wurden. Mit selbstlernenden KI-Systemen auf der Basis von großen Datenmengen erschließen wir uns nun ein neues Instrument: das Makroskop. Damit erforschen wir Geheimnisse der sozialen Beziehungen und andere extrem komplexe Gefüge in einer Verbindung von Draufsicht (big data) und Detailsicht (zum Beispiel Personendaten). Einer derartigen Komplexität technisch nahe zu kommen, war bisher unvorstellbar. Der Status dieses Wissens ist aber unsicher, beziehungsweise es kommt damit, wie Benanti betont, eine Revolution von Erkenntnis in Gang, die wir erst noch verstehen müssen.

Deutlich wird dies beispielsweise an der sogenannten vorhersagenden Polizeiarbeit, bei der es durch Analyse von Falldaten möglich wird, bereits vor einer Straftat polizeilich tätig zu werden. Und was bedeutet es, wenn wir mit einem Bild vom Augenhintergrund eines Menschen wissen können, wie lange er leben wird, oder aus seinen Verhaltensdaten auf psychische Probleme schließen können? Die Möglichkeiten dessen, was Menschen über sich wissen können, verändert sich im Kontext von KI rasant. Auch dies kann als Transformation des Humanen begriffen werden.

Welche Akteure haben welche Verantwortung?

Für die Theologie ist diese Reflexion der Veränderungen des menschlichen Selbstverständnisses und der neuen Wirklichkeit als Ort der Gottesbestimmung ein umfassendes Projekt, das im Prinzip alle theologischen Fächer, vor allem die systematischen und praktischen Disziplinen angeht. Obwohl die Zeit dazu gekommen ist und KI als Zeichen der Zeit auch gedeutet werden muss, steht die Theologie nicht so sehr wie die (theologische) Ethik unter Zeitdruck. Denn KI-Systeme werden heute ins Werk gesetzt und müssen heute politisch debattiert und reguliert werden. Auch wenn die Konjunktur der KI-Ethik ambivalent ist (nicht selten betreiben Wirtschaft und Regulierungsakteure mit KI-Ethik ethics washing), gibt es hier viel zu tun.

Die ethischen Problembereiche sind die Freiheit des Menschen, das Vertrauen in KI-Systeme, die Gemeinwohleffekte, Fragen der Verantwortung und Haftung, der Transparenz der Systeme, der Gerechtigkeit, Fairness und der Diskriminierungsfreiheit von KI-Systemen sowie Datenschutz und informationelle Selbstbestimmung. Die ethischen Probleme sind divers und variieren mit den unterschiedlichen KI-Anwendungsbereichen. Wohlstandsverteilung auch in globaler Hinsicht, Machtfragen und Bedrohungen der demokratischen politischen Systeme sind beispielsweise sozialethische Probleme im Feld der KI.

An dieser Stelle mag aber der Verweis auf ein Papier genügen, das die Päpstliche Akademie für das Leben im Februar 2020 in Rom publiziert hat. Der „Rome Call for AI Ethics“ setzt die Perspektiven der Ethik (zum Beispiel Menschenwürde und Diskriminierungsfreiheit), Ausbildung (Partizipation an der Gestaltung durch KI-Kompetenzen) und Rechte (Grundrechtsbezug und gesetzliche Regulierung) in den Mittelpunkt. Davon ausgehend bestimmt das Papier sechs Prinzipien des „ethischen Gebrauchs von Künstlicher Intelligenz“: Transparenz: KI-Systeme müssen prinzipiell erklärbar sein; Inklusion: Die Bedürfnisse aller Menschen müssen berücksichtigt werden, damit jeder davon profitieren kann und allen Individuen die bestmöglichen Bedingungen geboten werden können, sich auszudrücken und zu entwickeln; Verantwortung: Diejenigen, die den Einsatz von KI konzipieren und einsetzen, müssen verantwortungsvoll und transparent vorgehen; Unvoreingenommenheit: keine Voreingenommenheit schaffen oder danach handeln, um Fairness und Menschenwürde zu wahren; Verlässlichkeit: KI-Systeme müssen zuverlässig arbeiten können; Sicherheit und Datenschutz: KI-Systeme müssen sicher arbeiten und die Privatsphäre der Benutzer respektieren.

So richtig diese Prinzipien auch sind, stellt sich bei diesem und auch bei vielen anderen Papieren die Frage, ob sie auch Wirksamkeit entfalten. Element einer KI-Ethik auch im christlichen Kontext muss es daher sein, darüber nachzudenken, welche Akteure welche Verantwortung für eine gute und richtige KI haben. Auf die Akteure, Unternehmen, Verbände, politische Parteien und so weiter gilt es dann zuzugehen und in Auseinandersetzung mit ihnen zu treten und zu bleiben.

Technologien der Künstlichen Intelligenz werden mehr und mehr in unser Leben eindringen. Die damit verbundenen Transformationen des menschlichen Selbstverständnisses müssen reflektiert werden – eine Aufgabe, der sich die Theologie stellen sollte. Theologische, anthropologische und ethische Perspektiven verbinden sich auf dem Feld der Künstlichen Intelligenz in herausfordernder Weise. Hier wäre innertheologische Interdisziplinarität gefordert, die theologischen Reflexionen stehen allerdings noch am Anfang.

Anzeige
Anzeige: Der Papst der Bücher. Schlüsseltexte zum Denken Benedikts XVI. von Benedikt XVI., Manuel Herder

Herder Korrespondenz-Newsletter

Ja, ich möchte den kostenlosen Herder Korrespondenz-Newsletter abonnieren und willige somit in die Verwendung meiner Kontaktdaten zum Zwecke des eMail-Marketings des Verlag Herders ein. Dieses Einverständnis kann ich jederzeit widerrufen.