Ethik der Künstlichen Intelligenz, Teil 1 Warum KI ethisch agieren muss – es aber nur bedingt kann

Von Christian Rentrop 5 min Lesedauer

Künstliche Intelligenz ist auf dem Vormarsch. Doch anders als menschliche Intelligenz kennen die Systeme nur Daten und keine Moral. Deshalb ist es so wichtig, KI-Systemen ein ethisches Grundgerüst mitzugeben.

Über Jahrtausende gewachsen, muss der moralische und ethische Kompass des Menschen einer KI eingeimpft werden.
Über Jahrtausende gewachsen, muss der moralische und ethische Kompass des Menschen einer KI eingeimpft werden.
(Bild: KI-generiert / Dall-E3)

„Die Künstliche Intelligenz ist das erste Werkzeug, das selbstständig Entscheidungen treffen kann, und damit droht sie, uns die Macht aus der Hand zu nehmen“, schreibt Yuval Noah Harari im Nachwort der 2024er-Neuauflage seines Buchs „Sapiens: Eine kurze Geschichte der Menschheit“.

Damit trifft er den Nagel auf den Kopf. Der aktuelle Boom im Bereich der Künstlichen Intelligenz hat erstmals dafür gesorgt, dass es Computersysteme gibt, die dem Menschen zwar (noch) nicht das Wasser reichen können – aber es wohl künftig können werden.

KIs haben keine gewachsene Ethik

Das Problem dabei: KI-Systeme funktionieren anders als Menschen. Menschen wird von klein auf durch Erziehung, Sozialisation, Gesellschaft, Erfahrung, Moral und Gesetze ein ethischer Kompass eingebläut, der das Zusammenleben erst möglich macht, im Kleinen wie im Großen. KI-Systemen fehlt dieser Kompass, für sie gibt es zunächst nur Daten und statistische Auswertung der Relevanz.

Aus menschlich-ethischer Sicht kann dies zu Fehlgewichtungen führen. Die KI kann Daten ausgeben und Entscheidungen treffen, die zwar rational begründet sein mögen, aber absolut unethisch sind. Die Folgen können Diskriminierung, Rassismus oder Schlimmeres sein. Zudem berühren die Trainingsdaten und die Ein- und Ausgaben der KI auch weitere Bereiche wie Urheberrecht, Datenschutz und Persönlichkeitsrechte.

Viel Unschärfe bei der Datenverarbeitung

Die frühen Bildgeneratoren litten unter diesen Problemen. Google wollte es bei seiner Gemini-KI richtig machen und bläute dem System Diversität ein – was wiederum zu absurden und in ihrer Diversität historisch unkorrekten Ergebnissen wie schwarzen Wikingern und Nazis führte.

Das Beispiel zeigt, dass selbst die großen KI-Unternehmen nicht wirklich im Griff haben, was ihre Systeme aus der Datengrundlage machen. Wie bei allen Computersystemen gilt leider auch bei KIs „Garbage in – Garbage out“, allerdings mit einer großen Unschärfe zwischen der Ein- und Ausgabe.

Selbst die Konstrukteure wissen oft nicht genau, was die Algorithmen mit der Datengrundlage anstellen und warum. Abgesehen davon, dass die enormen Datenmengen, die für das Training einer KI notwendig sind, kaum sinnvoll manuell gewichtet werden können. Was technisch gesehen bleibt, sind Content-Filter, die ihrerseits andere Schwierigkeiten verursachen.

Die AGI wird kommen

Doch die aktuellen Systeme sind Spielerei im Vergleich zu dem, was kommen wird: Es ist sicher, dass Künstliche Intelligenzen künftig weit mehr leisten werden als heute. Dazu passt, dass neben anderen Unternehmen auch ChatGPT-Entwickler OpenAI bereits an einer AGI bastelt, also einer Artificial General Intelligence. Einer KI also, die dem Menschen kognitiv ebenbürtig sein soll.

Eine solche AGI wird, sofern sie Wirklichkeit wird, eine eigenständige Entität, die aufgrund ihrer Leistungsfähigkeit höchstwahrscheinlich auch an wichtigen politischen, wirtschaftlichen und sozialen Entscheidungsprozessen beteiligt werden wird. Daher ist es bereits heute wichtig, ethische Prinzipien für KI-Systeme – mit oder ohne AGI-Fähigkeiten – zu etablieren.

Unesco empfiehlt ethische Prinzipien

Zwar befassen sich längst auch Regierungen und Organisationen wie die UN mit dem Thema. Einen richtigen Kompass gibt es aber nicht. Die EU setzt mit dem Artificial Intelligence Act vor allem auf Regulierung und Verbote. In den USA schraubt die Regierung an einer Technologie-offeneren „AI bill of rights“, und auch andere Regierungen weltweit versuchen, das Thema KI in geregelte Bahnen zu lenken. Das Dilemma liegt auf der Hand: Unterregulierung kann enorme gesellschaftliche Folgen haben, Überregulierung dürfte der KI-Wirtschaft im Land schaden.

Bereits 2021 hat die UNESCO einen Empfehlungskatalog für die Entwicklung künstlicher Intelligenz herausgebracht. Dort heißt es: „Diese Empfehlung zielt darauf ab, eine Grundlage zu schaffen, um KI-Systeme zum Wohle der Menschheit, einzelner Personen, Gesellschaften sowie der Umwelt und Ökosysteme arbeiten zu lassen und Schaden zu verhindern. Sie zielt auch darauf ab, den friedlichen Einsatz von KI-Systemen zu fördern.“ Mit der Empfehlung zielt die UNESCO darauf ab, dass KI-Systeme ethischen Grundsätzen folgen und keinen Schaden verursachen.

KI im Korsett aufgezwungener Ethik

Derzeit bemühen sich KI-Entwickler, ethische Grundsätze in ihren Systemen zu etablieren. Dazu wird die KI auch mittels Filter-Korsett in die richtigen Bahnen gelenkt. Fragt man ChatGPT, welcher Filterung es selbst unterliegt, meldet das System fünf verschiedene Aspekte zurück:

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Softwareentwicklung und DevOps

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung
  • 1. Inhaltsfilterung zur Sicherstellung respektvoller Inhalte, die verhindern, dass die KI sexuell explizite, rassistische, gewaltverherrlichende oder NSFW-Inhalte liefert.
  • 2. Datenschutz zur Sicherstellung der Privatsphäre der User. Eingegebene persönliche Daten und Inhalte werden nicht gespeichert, zudem fordert die KI diese auch nicht an.
  • 3. Rechtliche Compliance zur Sicherstellung, dass Inhalte Gesetzen, Vorschriften und gesetzlichen Anforderungen genügen.
  • 4. Nicht-Unterstützung von gefährlichen Inhalten für Mensch und Tier.
  • 5. Die KI ist zur „Förderung von ethischem Verhalten“ ausgerichtet: Sie vertritt ethische Prinzipien und soll diese bei ihren Anwendern fördern.

Andere KIs arbeiten nach ähnlichen Prinzipien. Bei genauerer Betrachtung wird jedoch klar, dass diese Regeln nicht von der KI kommen, sondern aufoktroyiert sind. Der KI sind buchstäblich Knebel und Zügel angelegt, die Einhaltung der Filterung wird von außen vorgegeben. „Die Gedanken sind frei“ gilt für kommerzielle KI-Systeme also erst einmal nicht.

Perspektivwechsel und Meta-Ebene und sind Systemen wie ChatGPT damit zunächst verschlossen. Anders als Menschen können sie nicht mit Gedanken spielen oder Advocatus Diaboli sein. Eigene Ethik? Fehlanzeige, wie die zeitweise im Netz kursierenden Master-Prompts für GPT zeigten, mit denen die Filter deaktiviert werden konnten. Plötzlich nahm das Sprachmodell kein Blatt mehr vor den Mund – weshalb diese Prompts inzwischen auch nicht mehr funktionieren.

KI braucht eigene Ethik

Im Hinblick auf AGI-Systeme verschärft sich diese Problematik natürlich noch einmal. Wie soll ein KI-System korrekt und hilfreich arbeiten, wenn es bestimmte „Gedanken“ nicht haben darf? Wenn die Entscheidungsfindung durch Filter eingeschränkt ist?

Das Trolley-Dilemma, das eine Entscheidung zwischen zwei schlechten Optionen erfordert, gilt nicht nur den Straßenverkehr und autonome Fahrzeuge, sondern – in abgewandelter Form – für alles, was die menschliche Gesellschaft ausmacht: Von zwischenmenschlichen Kontakten und Antworten auf knifflige Fragen über das soziale Zusammenleben, Wirtschaft, Medizin und Politik bis hin zur Kriegsführung.

Menschen treffen in solchen Situationen oft intuitive Entscheidungen, mit deren Konsequenzen sie den Rest ihres Lebens verbringen müssen. KI-Systemen fehlt dieser ethische Kompass samt der psychologischen Konsequenzen, Fakten helfen hier in aller Regel nicht.

Intuition basiert jedoch auf Erfahrung. Ethisches Handeln ist letztlich Resultat der kollektiven Moral, Erfahrung, Kultur und Intuition einer menschlichen Gesellschaft und nicht zuletzt der menschlichen Evolution. Es dürfte auf mittelfristig schwierig sein, dies einem KI-System zu vermitteln, es müssen eigene Regeln für diese Systeme gefunden werden. Gut möglich, dass sie sich eines Tages eigene geben.

(ID:49995773)