Künstliche IntelligenzGeist in der Maschine?

Digitale Analyseprogramme und Algorithmen, also Programme, die bestimmte Erkennungsmuster suchen und mit anderen abgleichen sowie für die Anwender zum Nutzen vorsortieren, bestimmen mehr und mehr unser Leben. Jetzt könnten wir vor einem weiteren technischen Sprung der Computerhochrüstung und -vernetzung stehen. Wie lässt sich verhindern, dass der Techniksegen zum Fluch wird? Ein Blick in den neuen vatikanischen Ethik-Kodex für künstliche Intelligenz (KI).

Als die Weltgesundheitsorganisation am 9. Januar eine erste Epidemiewarnung wegen einer neuen grippeähnlichen Krankheit in China veröffentlichte, war das weltweit eine Überraschung. Jedoch nicht für alle. Ein Algorithmus des amerikanischen Datenanalyse-Konzerns BlueDot hatte schon im Dezember Alarm geschlagen. Das Programm durchsuchte zahllose Internetseiten, Foren, Blogs und offizielle Verlautbarungen nach Hinweisen auf neuartige Krankheiten und machte die Entwickler der Software früh auf einen möglichen Ausbruch in Wuhan aufmerksam. Die künstliche Intelligenz wusste nicht nur, wo das Virus aufgetreten war, sondern konnte auch Daten über Tiertransporte und Fluglinien auslesen und damit ziemlich genau berechnen, in welchen Metropolen die Krankheit als Nächstes Fuß fassen würde.

Theoretisch hätten auch menschliche Experten die Hinweise zusammensuchen und die Muster erkennen können, „aber die Maschine arbeitet rund um die Uhr, was den Prozess schneller und effizienter macht“, wird die BlueDot-Führung in der „Zeit“ zitiert. Andere Algorithmen forschen inzwischen an vorderster Front an einem Heilmittel gegen Corona. Mehrere Programme wurden darauf trainiert, den mikroskopischen Aufbau des Virus zu untersuchen und medizinische Datenbanken nach möglichen Gegenmitteln zu durchforsten. Andere Wissenschaftler entwickeln digitale Corona-Tests, die ganz ohne direkten Kontakt mit Menschen verlässliche Ergebnisse liefern.

Während von Tag zu Tag, von Woche zu Woche deutlicher wird, wie schlecht viele Staaten und Gesundheitssysteme auf die Epidemiewelle eingestellt sind, kann man nur staunen, was die weltweiten Datennetze zustande bringen, wenn man sie auf ein gemeinsames Problem loslässt. Einen solchen globalen Wettlauf in Echtzeit zwischen dem sich immer weiter verbreitenden Erreger und den immer schneller analysierenden Programmen, der geballten Zerstörungskraft der Natur und der kalten Effizienz der Maschine, gab es noch nie. Und schon jetzt lässt sich sagen, dass er der Technik einen deutlichen Schub geben wird.

Gottesgabe KI?

Für viele ist der Kampf gegen Corona das erste Mal, dass künstliche Intelligenzsysteme tatsächlich in der echten Lebenswirklichkeit angekommen sind. So wird inzwischen ganz offen über die Nutzung von Handy-Daten zur Bestimmung der Ausbreitung des Virus diskutiert. Bisher war KI ein Schlagwort, das zwar mit ebenso großen Heilserwartungen wie Schreckensszenarien verbunden war, letztendlich aber immer noch mehr nach Science-Fiction als nach Realität klang. Erst jetzt, wo sie tatsächlich direkten Einfluss auf unser Leben haben kann und deutlich wird, wie schnell und gut die Programme ihre Arbeit machen, wird klar, dass sie schon lange in unserem Alltag anwesend ist und diesen bestimmt. Damit stellen sich aber auch all die Fragen, die bis jetzt immer noch weit weg schienen, mit neuer Dringlichkeit.

Stehen wir am Beginn eines goldenen Zeitalters, in dem nach und nach alle Menschheitsprobleme vom unparteiischen Blick der Computerprogramme gelöst werden? Entpuppt sich der künstliche „Geist in der Maschine“ am Ende als Flaschengeist, der, einmal entfesselt, nicht so schnell wieder unter Kontrolle zu bringen ist? Oder bestätigt sich wieder die Binsenweisheit, dass jede Technik nur ein Werkzeug ist und damit so gut oder schlecht wie die Menschen, die sie bedienen? Und falls es so ist – an welche moralischen Richtlinien muss man sich halten, um künstliche Intelligenz richtig zu nutzen?

Es ist erst wenige Wochen her, dass der Vatikan einen Ethik-Kodex zu genau diesen Fragen veröffentlicht hat. Hunderte Wissenschaftler, KI-Experten und Wirtschaftsgrößen kamen zusammen, diskutierten und erarbeiteten den „Rome Call for AI Ethics“ (Römischer Ruf nach KI-Ethik; AI steht für Artificial Intelligence), ein wenige Seiten umfassendes Papier, das klare Richtlinien für den Umgang mit der neuen Technologie liefern soll. Als Erstunterzeichner konnten die amerikanischen IT-Giganten Microsoft und IBM gewonnen werden (vgl. CIG Nr. 10, S. 98). Die anschließende, von Papst Franziskus formulierte Rede machte bereits deutlich, welche Hoffnungen auch der Vatikan mit KI-Systemen verbindet: „Wir stehen einem Geschenk Gottes gegenüber, einer neuen Ressource, die gute Früchte tragen kann.“ Die Welt befinde sich in einem „Epochenwandel“, nur zu vergleichen mit der Erfindung der Elektrizität oder dem Buchdruck. Einem Wandel, in dem „sogar die Grenzen instabil werden, die bislang als gefestigt galten: zwischen anorganischer und organischer Materie, zwischen der realen und der virtuellen Welt“.

Zum Wohle der Menschheit

Dieser Optimismus durchzieht den gesamten Text des Ethik-Kodex. So wird gleich zu Beginn klargestellt, dass KI-Technik „wirklich der gesamten ‚Menschheitsfamilie‘ nutzen“ soll und nicht nur die Würde jedes Menschen, sondern auch „alle natürlichen Lebensräume“ zu respektieren hat. Allgemein spielt die Bewahrung der Schöpfung im „Rome Call for AI Ethics“ eine unerwartet große Rolle. Die Unterzeichner sollen garantieren, dass die Entwicklung künstlicher Intelligenz nie zum technischen Selbstzweck verkommt, sondern „zum Wohle der Menschheit und der Umwelt, unserer gemeinsamen Heimat, betrieben wird“. Wie in der päpstlichen Abschlussrede klingt auch im Ethik-Kodex immer wieder an, wie tiefgreifend die neuen Algorithmen das Leben des Einzelnen verändern werden. Und welche Chancen sich dadurch ergeben.

Solche Versicherungen lassen sich als Reaktion auf das bekannte Schreckensszenario lesen, dass die Menschheit im Zeitalter der KI gänzlich von Programmen verdrängt werden könnte. So warnt der Ethik-Kodex sehr direkt vor jedem Versuch, echte Entscheidungsträger durch etwas zu ersetzen, das „sich wie ein rationaler Akteur verhält, aber in keiner Weise menschlich ist“. In dieser Formulierung schwingt jener entscheidende Unterschied zwischen natürlicher und künstlicher Intelligenz mit, der die Debatte der Maschinenethik seit Jahrzehnten prägt, in dem Dokument selbst aber kaum angesprochen wird. Der Karlsruher Technikphilosoph Armin Grunwald etwa betonte in der Januar-Ausgabe der Zeitschrift „Zur Debatte“ noch einmal: „Algorithmen, Drohnen und Roboter denken und handeln nicht, sie bewerten und entscheiden nicht. Sondern sie spulen Rechenprogramme ab und werten damit Daten aus, denen wir über eine anthropomorphe Sprache die Dignität und Aura des Menschen zuschreiben.“

An dieser fundamentalen Unterscheidung hängt viel. Grunwald will damit vor allem allzu euphorischer Heilserwartung einen Riegel vorschieben. „Erlösung durch Technik bleibt eine Illusion …, entscheidend ist, dass diese Sichtweise verbreitet und geteilt wird, den kommunikativen Hypes zum Trotz.“ Religionen und Kirchen hätten hier eine besondere Verantwortung, immer über die gerade anstehende technische Revolution hinauszuweisen und allzu begeisterten Gurus des digitalen Zeitalters den Wind aus den Segeln zu nehmen. „Und sie haben einige gute Argumente.“

Es ist wenig überraschend, dass der als moralische Richtschnur zur „KI-Epochenwende“ konzipierte Ethik-Kodex andere Schwerpunkte setzt. Nur einmal wird eine konkrete technische Neuerung angesprochen, die direkt gegen Menschenrechte verstoßen könnte – die digitale Gesichtserkennung, die bereits in Überwachungsstaaten eingesetzt wird, um Systemkritiker zu verfolgen. Alle anderen Warnungen vor unliebsamen Folgen für eine Gesellschaft, die mehr und mehr Macht in die Hände von künstlichen Intelligenzen legt – und damit in die der Megakonzerne, die die Programme kontrollieren –, bleiben recht vage formuliert. So vage jedenfalls, dass die Vertreter eben jener Megakonzerne kein Problem damit hatten, sofort zu unterzeichnen. Immerhin, so argumentierten Kritiker schnell, kann der Stempel der „vatikanisch geprüften“ Ethikrichtlinien dem marktwirtschaftlichen Image nicht schaden. Wie die tatsächliche Umsetzung der einzelnen Punkte überwacht werden soll, ist dagegen offen.

Sechs Gebote für KI

Verteidiger des Ethik-Kodex geben zu bedenken, dass er kein wasserdichter juristischer Vertrag sein will und kann, aber doch als willkommener Richtungsweiser in eine immer stärker digital geprägte Zukunft gelesen werden kann. Das betrifft insbesondere den letzten Abschnitt, der sechs Prinzipien für den moralisch richtigen Gebrauch von künstlicher Intelligenz auflistet. Die Systeme sollen so transparent wie möglich gehalten werden. Nur wenn jeder Nutzer prinzipiell verstehen kann, wie die verschiedenen Algorithmen seine Daten verarbeiten und was sie herauslesen wollen, ist seine Datenschutz-Zustimmung etwas wert. Allgemein soll künstliche Intelligenz helfen, die oft unzugängliche Welt der Technik möglichst unvoreingenommen und inklusiver zu gestalten. Alle Menschen sollen „die bestmöglichen Bedingungen bekommen, sich auszudrücken und weiterzuentwickeln“. Allerdings wird das mit dem Hinweis versehen, dass „die Älteren“ zumindest für die „digitale und technologische Übergangszeit“ immer die Möglichkeit haben müssen, im Alltag gewohnt analog mit echten Menschen zusammenzuarbeiten.

Auf technischer Ebene müssen KI-Systeme verlässlich arbeiten und die Sicherheit und Privatsphäre ihrer Nutzer garantieren. Und schließlich ist jeder, der künstliche Intelligenz einsetzt, angehalten, verantwortlich mit dem neuen Werkzeug umzugehen. Wie selbstständig die Programme auch arbeiten, in letzter Instanz muss sich immer ein Mensch finden, der Rechenschaft über ihr Verhalten ablegt. Dabei setzt der Ethik-Kodex auch in diesem zentralen Punkt naturgemäß sehr viel mehr auf moralische als auf juristisch festgeschriebene Richtlinien. Um eine bessere Zukunft im Zeichen der KI zu errichten, braucht es für die Verfasser in erster Linie gemeinsame Werte und Prinzipien und nur „in einigen Fällen gesetzliche Regulierungen“.

Moral ist nicht genug

Wie viel schwieriger es wird, zu einem Konsens zu finden, wenn die abstrakten Ethikmaßstäbe doch einmal in feste Gesetze gegossen werden, zeigte sich zuletzt Anfang des Jahres, als die EU-Kommission ein Weißbuch zum Umgang mit KI vorstellte. „Künstliche Intelligenz muss den Rechten der Menschen folgen“, stellte Kommissionspräsidentin Ursula von der Leyen damals klar. Deshalb brauche es einen europaweiten Regulierungsrahmen, der den besonderen Anwendungsmöglichkeiten der neuen Technologie Rechnung trägt. Um beim Programmieren von künstlichen Intelligenzen nicht länger von den großen amerikanischen Tech-Unternehmen abhängig zu sein, soll etwa ein gemeinsamer, von der EU kontrollierter Datenmarkt aufgebaut werden. So könnte sichergestellt werden, dass eine zentrale Stelle den Überblick behält, wie Daten gesammelt werden und in welche Algorithmen sie fließen. KI-Systeme sollten EU-weit geprüft und zertifiziert werden. Prompt liefen IT-Branchenverbände Sturm und warnten vor einer Überregulierung.

Natürlich lässt sich noch nicht sagen, wie erfolgreich das Weißbuch-Projekt sein wird, ambitioniert ist es auf jeden Fall. Es wäre die weltweit erste einheitliche Regulierung von KI-Anwendungen dieser Art. Und ein wichtiger Schritt hin zu einer Zukunft, in der Tech-Firmen nicht nur ihrem Gewissen, sondern auch klaren, übergreifenden Gesetzen verpflichtet sind. Ein Schritt, den wir schnell machen sollten, am besten bevor die Technologie den nächsten Sprung macht und noch schwerer zu durchschauen und zu kontrollieren ist. Aktuell zeigt sich wie nie zuvor, dass selbstständig arbeitende Algorithmen, wenn es darauf ankommt, tatsächlich der „gesamten Menschheitsfamilie nutzen“ können. Zeit, dafür zu sorgen, dass das der Normalzustand wird. Mit Moral und Gesetzen.

Anzeige
Anzeige: Seewald Reform

Der CiG-Newsletter

Ja, ich möchte den kostenlosen CIG-Newsletter abonnieren und willige somit in die Verwendung meiner Kontaktdaten zum Zwecke des eMail-Marketings des Verlag Herders ein. Dieses Einverständnis kann ich jederzeit widerrufen.