EthikKI soll Menschen dienen, sie nicht ersetzen

Künstliche Intelligenz (KI) durchdringt immer mehr Lebensbereiche. Der Deutsche Ethikrat hat sich nun grundsätzlich mit Chancen und Risiken ihrer Anwendung befasst. Wesentlich ist dabei, welches Verhältnis von Menschen und Maschine zugrunde gelegt wird.

Symbolbild Künstliche Intelligenz
© Pixabay

Möglicherweise wird man schon bald bei einem Text wie diesem angeben müssen, ob er teilweise oder ganz von Chatbots erstellt wurde. Diese Anwendungen künstlicher Intelligenz erobern derzeit den Markt. Stichworte zu Inhalt und Anlass reichen aus, damit Algorithmen im Rückgriff auf bestehende Texte einen neuen erstellen. Spätestens wenn es um Nachrichten, Wissenschaft oder Prüfungen geht, hört der Spaß allerdings auf.

So betont auch der Deutsche Ethikrat, dass Künstliche Intelligenz (KI) eine verantwortliche Autorenschaft nicht ersetzen darf. Dies ist nur eines von vielen Themen, denen sich das Gremium in seiner jüngst vorgestellten Stellungnahme "Mensch und Maschine - Herausforderungen durch die künstliche Intelligenz" stellt.

Nach mehreren Einzelveröffentlichungen zum Thema nähert er sich der Frage diesmal grundsätzlich und gibt zahlreiche Empfehlungen. Mit fast 300 Seiten gehört die am Montag in Berlin vorgestellte Studie zu den umfangreichsten der 24 Experten, die Regierung und Parlament in Ethikfragen beraten sollen.

Einleitend klärt die Studie zunächst in einer "Technischen und philosophischen Grundlegung" darüber auf, was sie unter KI überhaupt versteht und welches Verständnis des Menschen sie zugrunde legt. Einer menschlichen Person kann ein Computer nach Überzeugung der Experten weder heute noch in Zukunft gleichgestellt werden. Dass es Softwareentwicklern oder selbstlernenden Maschinen wohl immer mehr gelingen wird, menschliche Fähigkeiten nachzuahmen, ja zu übertreffen ist dabei nicht das Problem. Im Gegenteil: Dazu werden sie zumeist gebaut.

"Das sollte uns aber nicht dazu verführen, ihnen personale Eigenschaften zuzuschreiben, die für genuine menschliche Existenz essenziell sind", heißt es. Denn KI-Anwendungen können nach den Worten des Philosophen und Mitautors Julian Nida-Rümelin "menschliche Intelligenz, Verantwortung und Bewertung nicht ersetzen".

Die Studie widerspricht damit einer Verkürzung des Menschen auf bestimmte Funktionen etwa seines Gehirns oder einer Reduktion auf ein Reiz-Reaktions-Schema wie beim Behaviorismus. Zum Menschen gehört eben viel mehr, etwa die Fähigkeit der Reflexion, des ethischen Urteils, der Sinngebung, des Fühlens oder der Selbstbestimmung.

Die Studie geht dann auf vier wesentliche Anwendungsbereiche ein, "in denen der Einsatz algorithmischer Systeme und die KI schon besonders weiter reichende Veränderungen bewirkt hat oder in Kürze bewirken wird": Medizin, Bildung, öffentliche Kommunikation und öffentliche Verwaltung. Damit fehlen etwa der private Haushalt, Ernährung, Verkehr oder intelligente Waffensysteme, um nur einige zu nennen. Denn künstliche Intelligenz erfasst inzwischen fast alle Lebensbereiche.

Dem Ethikrat geht es vor allem um Kriterien für einen angemessen Umgang. Der grundsätzliche Nutzen von KI wird nicht infrage gestellt, wie die Ratsvorsitzende Alena Buyx ausdrücklich betonte. Ganz im Gegenteil, sie sei in vielen Bereichen nicht mehr wegzudenken und äußerst hilfreich. Es komme eben auf den Einzelfall und die Art der Anwendung an. So kehrte auch bei vielen Nachfragen zu einer konkreten Bewertung der Begriff "ambivalent" wieder.

Als Leitkriterium beim Für und Wider setzt der Rat auf die Unterscheidung, ob KI menschlicher Entfaltung dient oder sie einschränkt. Ein typisches Beispiel zeigt sich bei Robotern in der Pflege, zu denen der Rat bereits eine Stellungnahme herausgegeben hatte. Sie können für das Personal beim Heben oder Versorgen Pflegebedürftiger von großem Nutzen sein. Aber sie können menschliche Zuwendung nicht ersetzen. Ähnlich verhält es sich in der Bildung.

Wobei der Rat auf eine gesamtmenschliche Bildung abhebt, die sich klar von reiner Wissensvermittlung unterscheidet. Ziel sei der "Erwerb von Orientierungswissen als Bedingung von reflexiver Urteilskraft und Entscheidungsstärke". Deshalb sollten KI-Systeme daraufhin geprüft werden, ob sie zu freiem und vernünftigem Handeln, zu Selbstbestimmung und Verantwortung befähigen und Persönlichkeitsbildung fördern.

Großen Regelungsbedarf sieht die Ethikrat-Studie beim Einsatz von KI zu öffentlichen Kommunikation und Meinungsbildung. Die politische Brisanz ist spätestens bei den US-Präsidentschaftswahlen deutlich geworden. Inzwischen bieten KI-Unternehmen weltweit ihre Dienste für gezielte politische Kampagnen an. Unter dem Titel Informationsqualität kommen etwa die Themen Falschnachrichten und Verschwörungstheorien, Filterblasen und Echokammern, moralische und emotionale Aufladung, sowie politische Polarisierung, Werbung und Manipulation zur Sprache.

Bei Sozialen Medien verlangen Experten rechtliche Vorgaben zur Kuratierung und Moderation von Inhalten, die überprüfbar sein sollten. Freiwilligkeit sei nicht ausreichend. Dasselbe müsse auch für den Digital Services Act der Europäischen Union gelten.

Ferner greift die Studie die Idee auf, "den privaten Social-Media-Angeboten im europäischen Rahmen eine digitale Kommunikationsinfrastruktur in öffentlich-rechtlicher Verantwortung zur Seite zu stellen", als "Alternative zu den kommerzbetriebenen, stark oligopolartigen Angeboten". Um eine hinreichende Staatsferne zu garantieren, könnte auch an eine Trägerschaft in Gestalt einer öffentlichen Stiftung gedacht werden, heißt es in den Empfehlungen.

Beim Querschnittsthema Datennutzung verlangen sie Autonomie, Würde und Privatheit des Menschen zu achten. Zu "Big Data" hatte sich der Ethikrat bereits 2017 in einer Stellungnahme über Datennutzung im Gesundheitswesen geäußert. Dabei verlangte er Datensouveränität des Patienten; gleichzeitig sollten aber Daten anonymisiert zum Wohle der Allgemeinheit genutzt werden können.

Grundsätzlich halten die Experten fest: KI sollte menschliche Entscheidungen zwar unterstützen, aber nicht ersetzen. Anders gesagt: Die Letztverantwortung sollte immer beim Menschen liegen. In diesem Sinn gelte es auch Abhängigkeiten und Missbrauch von Technik sowie unerwünschte Verluste menschlicher Fertigkeiten zu vermeiden.

Von Christoph Scholz
© KNA. Alle Rechte vorbehalten.

Anzeige: In der Tiefe der Wüste. Perspektiven für Gottes Volk heute. Von Michael Gerber

Herder Korrespondenz-Newsletter

Ja, ich möchte den kostenlosen Herder Korrespondenz-Newsletter abonnieren und willige in die Verwendung meiner Kontaktdaten zum Zweck des E-Mail-Marketings durch den Verlag Herder ein. Den Newsletter oder die E-Mail-Werbung kann ich jederzeit abbestellen.
Ich bin einverstanden, dass mein personenbezogenes Nutzungsverhalten in Newsletter und E-Mail-Werbung erfasst und ausgewertet wird, um die Inhalte besser auf meine Interessen auszurichten. Über einen Link in Newsletter oder E-Mail kann ich diese Funktion jederzeit ausschalten.
Weiterführende Informationen finden Sie in unseren Datenschutzhinweisen.