Technologie

Ethik und KI

Wie wir KI verantwortungsvoll entwickeln & anwenden können.

Künstliche Intelligenz (KI) birgt zweifelsohne immense Potenziale. Ihre verantwortungsvolle Entwicklung und Anwendung ist jedoch eine Grundvoraussetzung für das Vertrauen in diese Technologie und damit eine zwingende Notwendigkeit für den mittel- und langfristigen Erfolg nahezu aller KI-Projekte und -Produkte.

Fragen der Ethik im Bezug auf KI sind dabei längst keine Randerscheinung mehr: Sie werden in der Enquete-Kommission “Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale” des Bundestags ebenso diskutiert wie in verschiedenen Arbeitsgruppen der Politik, der Wissenschaft und der Wirtschaft, bspw. in Unternehmen wie SAP und Telekom.

In diesem Artikel werden einige eben dieser Diskussionen zusammengefasst. Zunächst definieren wir die für diesen Artikel zentralen Begriffe Ethik und KI. Dann motivieren wir, warum ethische Fragen und KI zusammen gedacht werden müssen. Anschließend beleuchten wir die ethischen Werte für eine verantwortungsvolle Entwicklung und Anwendung von KI-Systemen, ihre Prinzipien und Voraussetzungen sowie daraus resultierende Handlungsoptionen für Entwickler*innen und Anbieter*innen von KI-Systemen. Daran anknüpfend beschreiben wir eine “best practice”, um die verantwortungsvolle Entwicklung und Anwendung von KI in Arbeitsprozesse zu integrieren. Abschließend ziehen wir ein kurzes Fazit.

Die Begriffe der Ethik und der KI

Der philosophische Begriff der Ethik ist eng mit dem Begriff der Moral verknüpft: Eine Moral beschreibt, “[..] welche Reaktion von einem Individuum in einer bestimmten Situation erwartet wird.”. Sie ist immer abhängig von Ansichten in Politik, Gesellschaft und Religion und damit veränderlich. Mehrere Moralen können koexistieren. Die Ethik steht über der Moral bzw. den Moralen und untersucht diese, erlaubt es uns also, unser Denken zu hinterfragen und ggf. zu korrigieren.

Der Begriff der KI ist — wohl auch weil er sich auf den vielschichtigen und schwer greifbaren Begriff der Intelligenz bezieht — streitbar. Spricht dieser Artikel von KI, so meint er das, was üblicherweise als “schwache KI” beschrieben wird, d.h. Systeme, die bspw. durch Maschinelles Lernen (engl. machine learning) konkrete Probleme lösen.

Motivation

Doch warum stellen wir uns überhaupt Fragen der Ethik, wenn wir KI-Systeme entwickeln und anwenden? Mit zunehmender Durchdringung unseres Lebens durch KI steigt auch die Gefahr, die von ihrer nicht-verantwortungsvollen Entwicklung und Anwendung ausgeht: Als Beispiele seien die Verzerrung (engl. bias) in Googles Gesichtserkennung zu nennen, die 2015 für Aufregung sorgte, oder die Ungleichbehandlung von Bewerbern in Amazons Einstellungsprozess, die 2018 bekannt wurde, oder auch die gezielte Verbreitung von Desinformation in sozialen Medien. Skandale wie diese sind es, die das öffentliche Vertrauen in KI nachhaltig erschüttern. Nur KI-Systeme, die einerseits zuverlässig und gut funktionieren und andererseits das Risiko unerwarteter Folgen minimieren, können diese Vertrauen (wieder-)herstellen, bemerkt auch Andrew Ng in der 80. Ausgabe von “The Batch”. Dass Menschen dieser Technologie vertrauen müssen, damit sie erfolgreich innerhalb und außerhalb von Unternehmen, im privaten wie im öffentlichen Raum eingesetzt werden kann, ist zweifelsohne der Fall.

Ethische Werte

Um KI verantwortungsvoll zu entwickeln und anzuwenden, müssen wir uns diesem White Paper zufolge an ethischen Werte orientieren. Diese sind

  • Selbstbestimmung,
  • Gerechtigkeit und
  • Schutz der Privatheit.

An diese Werte schließen jeweils weiterführende ethische Prinzipien an, die wiederum notwendige — technische und nicht-technische — Voraussetzungen haben. Im folgenden betrachten wir diese Werte sowie einige ihrer weiterführenden Prinzipien und Voraussetzungen näher. Zusätzlich gehen wir darauf ein, welche Handlungsoptionen Anbieter*innen und Entwickler*innen von KI-Systemen zur Verfügung stehen, um diese ethischen Prinzipien tatsächlich zu achten. Die Anwendbarkeit dieser Handlungsoptionen — nicht Handlungsanweisungen — variiert und muss individuell festgestellt werden. Bewusst klammern wir in diesem Artikel hierbei Handlungsoptionen einiger weiterer Gruppen von Personen, die mit KI-Systemen in Berührung kommen — Nutzer*innen, Betroffene, und politische Entscheidungsträger*innen — aus. Interessierte Leser*innen seien an dieser Stelle auf das obige White Paper verwiesen.

Selbstbestimmung

Die Selbstbestimmung garantiert jeden Menschen die freie Entfaltung seiner Persönlichkeit, soweit er dadurch nicht die Rechte anderer verletzt.

Ein weiterführendes Prinzip der Selbstbestimmung ist die Förderung der Autonomie. Bezogen auf KI bedeutet das: KI-Systeme sollen Menschen in ihrer Entscheidungsfindung unterstützen, sie jedoch bspw. nicht dadurch einschränken, dass sie im Unklaren darüber belassen werden, unter welchen Bedingungen Entscheidungen getroffen werden. Notwendige Voraussetzungen hierfür sind vor allem die Erklärbarkeit und die Nachvollziehbarkeit dieser Entscheidungen. Zum einen muss transparent sein, wann der Mensch mit einem KI-System interagiert. Zum anderen müssen die Entscheidungen eines KI-Systems nachvollziehbar sein: Wir müssen Kenntnis darüber haben, welche Daten das KI-System verarbeitet und warum es zu gewissen Resultaten gelangt.

Für Entwickler*innen von KI-Systemen resultiert das in folgenden Handlungsoptionen:

  • Sie bevorzugen erklärbare KI (engl. Explainable AI, XAI).
  • Sie konzipieren KI-Systeme dergestalt, dass ein Mensch
    • die Entscheidungshoheit besitzt, falls sich die Entscheidungen des KI-Systems direkt auf Menschen auswirken und
    • die Verantwortung für durch das KI-System getroffene Entscheidungen trägt, falls sich diese nicht direkt auf Menschen auswirken.
  • Sie gewährleisten eine
    • lückenlose Dokumentation der Entwicklung des KI-Systems und
    • fortwährende Überwachung der Anwendung des KI-Systems.
  • Sie bevorzugen offene Schnittstellen und fördern die Interoperabilität verschiedener KI-Systeme.

Für Anbieter*innen von KI-Systemen bedeutet das:

  • Sie verpflichten sich freiwillig zur Einhaltung ethischer Prinzipien.
  • Sie legen offen, welche ihrer Produkte an welchen Stellen KI einsetzen.
  • Sie weisen darauf hin, wie selbstständig KI in ihren Produkten agiert.
  • Sie pflegen gemeinsam mit anderen Unternehmen, Organisationen und staatlichen Organen ein zentrales KI-Register, in dem sie ihre KI-Produkte selbstständig eintragen.
  • Sie bieten KI-Weiterbildungen für ihre Mitarbeiter*innen an.

Gerechtigkeit

“Gerechtigkeit ist das Prinzip eines individuellen oder gesellschaftlichen Handelns, das jeder und jedem gleichermaßen sein Recht gewährt [..]” (S. 15).

Weiterführende Prinzipien der Gerechtigkeit sind u.a. Gleichheit, Diversität, Fairness und Nachhaltigkeit. Gleichheit meint hier v.a. Diskriminierungsfreiheit: Gleiches wird nicht ungleich behandelt und Ungleiches nicht gleich. Diversität bezieht sich sowohl auf die Entwickler*innen eines KI-Systems, die idealerweise unterschiedliche Perspektiven einbringen und verschiedene Erfahrungshintergründe haben, als auch auf die repräsentative Vielfalt der für ein KI-System verwendeten Trainingsdaten. Fairness meint hier v.a. den gleichen Zugang aller Menschen zu den Vorteilen von KI-Systemen. Fairness bedeutet aber auch: Entstehen durch den Einsatz von KI-Systemen Nachteile für einzelne Menschen oder Gruppen von Menschen, müssen diese ausgeglichen werden. Nachhaltigkeit meint eine intergenerationelle Gerechtigkeit im Bezug auf ökonomische, ökologische und soziale Sachverhalte. Notwendige Voraussetzung für diese Prinzipien sind v.a. die Auskunftspflicht während der Entwicklung und Anwendung von KI-Systemen und die Zurechenbarkeit von Verantwortung: wer wann für mögliche Schäden haftet, die durch KI verursacht werden, muss eindeutig geklärt sein.

Für Entwickler*innen von KI-Systemen resultiert das in folgenden Handlungsoptionen:

  • Sie verwenden bevorzugt repräsentative Datensätze.
  • Sie filtern Daten bzgl. diskriminierender Variablen.
  • Sie optimieren Verfahren des Maschinellen Lernens nicht nur bzgl. ihrer Effizienz, sondern auch bzgl. ihrer Fairness.
  • Sie implementieren Verfahren, die es erlauben, KI-gesteuerte Vorgänge sicher abzubrechen.
  • Sie bewahren Aufzeichnungen über die Entwicklung der KI-Systeme und der genutzten Trainingsdaten auf.
  • Sie achten auf Diversität in ihren Teams.
  • Sie binden alle von einem KI-System Betroffenen in die Entwicklung des KI-Systems und der genutzten Trainingsdaten ein.

Für Anbieter*innen von KI-Systemen bedeutet das:

  • Sie prüfen, ob ihre KI-Systeme in den Kontakt mit besonders schützenswerte Zielgruppen gelangen.
  • Sie sehen Mechanismen vor, um Diskriminierungen o.ä. zu melden.
  • Sie etablierten Verfahren, um zu beurteilen, ob beim Einsatz von KI-Systemen Schäden entstehen.

Schutz der Privatheit

Die “Privatheit meint die Abgrenzung eines Bereiches von der Öffentlichkeit, der geschützt ist vor äußeren Eingriffen.” (S. 20).

Weiterführende Prinzipien des Schutzes der Privatheit sind u.a. Anonymität als Privatheit in der Öffentlichkeit und das Recht auf informationelle Selbstbestimmung — also das Recht, selbst über die Verwendung eigener personenbezogener Daten zu bestimmen. Notwendige Voraussetzungen hierfür sind bspw. eine Minimierung der Datenerhebung und -verarbeitung, die Transparenz bzgl. der Erhebung und Verarbeitung von Daten und auch “privacy by design” — d.h., das Design der KI-Technologie selbst muss die Privatheit schützen.

Für Entwickler*innen von KI-Systemen resultiert das in folgenden Handlungsoptionen:

  • Sie bevorzugen für das datenschutzkonforme Training von KI-Systemen anonymisierte bzw. pseudonymisierte Daten bzw. nutzen Techniken wie Föderierte Lernen.
  • Sie folgen hinreichend hohen Sicherheitsstandards, um die Daten zu schützen und zu sichern.

Für Anbieter*innen von KI-Systemen bedeutet das:

  • Sie sehen stets die Anonymisierung bzw. Pseudonymisierung der Daten ihrer Nutzer*innen vor.
  • Sie holen Einwilligungserklärungen ihrer Nutzer*innen ein.
  • Sie bieten einen leicht verständlichen, leicht erreichbaren Widerruf der von ihnen eingeholten Einwilligungserklärungen an.

Eine Best Practice

Doch wie können wir — wie können Sie — dafür Sorge tragen, diese ethischen Werte während der Entwicklung und in der Anwendung von KI-Produkten tatsächlich zu achten? Wie schaffen es Entwickler*innen und Anbieter*innen, ihrer Verantwortung gerecht zu werden und gemäß obiger Handlungsoptionen zu agieren? Steht der nächste Abgabetermin vor der Tür, werden ethische Prinzipien womöglich schnell über Bord geworfen. Wie es gelingen kann, ethische Werte fest in Arbeitsprozessen und damit auch in der Unternehmenskultur zu verankern, zeigen wir in diesem Abschnitt auf.

Verarbeitet ein KI-System personenbezogene Daten, sind ethisch motivierte Handlungsoptionen besonders wichtig, doch auch bei der Verarbeitung nicht-personenbezogener Daten sollten diese eine zentrale Rolle spielen. Ein hippokratischer Eid wie er bei Ärzten*innen üblich ist — und wie er bspw. auch von Cathy O’Neil in “Weapons of Math Destruction” vorgeschlagen wird — reicht jedoch im Alltag nicht aus, diese Handlungsoptionen fest in Arbeitsprozesse zu integrieren. Als best practice empfehlen die Autor*innen des Buches “Ethics and Data Science” deshalb die Verwendung von Prüflisten (engl. check lists). Die Wirksamkeit von Prüflisten ist — trotz ihrer vermeintlichen Banalität — durch Studien belegt, bspw. in der Medizin. Um in der tagtäglichen Praxis tatsächlich anwendbar zu sein, sollten solche Prüflisten einfach beantwortbar sein. Um sicherzustellen, dass sie — die ehrliche Beantwortung der Fragen vorausgesetzt — auch Wirkung zeigen, sollten sie im Lebenszyklus eines KI-Produkts mindestens 3x abgefragt werden: In der Phase der Konzeption, vor der Veröffentlichung und nach der Veröffentlichung.

Eine solche Prüfliste könnte laut “Ethics and Data Science” bspw. die folgenden Fragen stellen:

  • Haben wir unsere Trainingsdaten dahingehend überprüft, dass sie repräsentativ sind?
  • Haben wir mögliche Verzerrungen in unseren Trainingsdaten analysiert?
  • Haben wir im Hinblick auf unterschiedliche Anwender*innen des Systems auf Fairness geprüft?
  • Haben wir überprüft, ob sich die Fehlerrate unseres KI-Systems im Hinblick auf unterschiedliche Anwender*innen unterscheidet?
  • Prüfen wir, ob unser KI-System über den Verlauf der Zeit fair bleibt?
  • Ist unser Team im Hinblick auf seine Erfahrungshintergründe und Meinungen divers?
  • Haben wir dokumentiert, wie unser KI-System attackiert oder missbraucht werden könnte?
  • Haben wir Möglichkeiten zur Wiedergutmachung, falls Nutzer*innen durch unser KI-System Schaden nehmen?
  • Können wir das produktive KI-System bei unerwünschtem Verhalten stoppen?
  • Wissen wir, welche Einverständnisse wir von unseren Nutzer*innen brauchen?
  • Haben wir einen Mechanismus, der diese Einverständnisse abfragt?
  • Haben wir deutlich erklärt, womit sich die Nutzer*innen einverstanden erklären?
  • Haben wir einen Plan, wie wir die Daten unserer Nutzer*innen schützen und sichern?
Natürlich verlangt jede Situation nach einer Prüfliste, die an die jeweiligen Belange angepasst ist. Um eigene Fragen für eine individuelle Prüfliste entwickeln, kann die goldenen Regel helfen, von der die Autor*innen in “Ethics and Data Science” im Bezug auf die Nutzung von Daten durch KI sprechen:

Behandele die persönlichen Daten anderer so, wie Du möchtest, dass andere deine persönlichen Daten behandeln.

Um dieser goldenen Regel zu entsprechen, empfiehlt es sich, den “5 Cs” Beachtung zu schenken:

  • Consent (Einverständnis): Nutzer*innen müssen der Erhebung und der Verarbeitung ihrer Daten zustimmen.
  • Clarity (Transparenz): Nutzer*innen müssen darüber informiert werden, wofür sie Ihr Einverständnis geben und was mögliche Konsequenzen ihrer Einwilligung sind.
  • Consistency (Berechenbarkeit): Damit Nutzer*innen KI-Systemen vertrauen, muss das Verhalten dieser KI-Systeme für sie vorhersehbar bzw. berechenbar sein.
  • Control (Kontrolle): Nutzer*innen müssen die Kontrolle über ihre Daten haben, d.h. sie müssen
    • einsehen können, wie diese genutzt werden und
    • diese bspw. auch löschen können.
  • Consequences (Auswirkungen): Entwickler*innen eines KI-Produkts müssen sich ernsthafte Gedanken darüber machen, inwiefern ihr Produkt Individuen oder Gruppen von Menschen schaden kann.

Wurde eine individuelle Prüfliste entwickelt, wird diese fortan in den verschiedenen Phasen im Lebenszyklus eines KI-Produkts zur (Selbst-)Überprüfung herangezogen. Selbstredend sollte dabei jeweils jede Frage mit “Ja” beantwortet werden können. Muss eine Frage oder müssen mehrere Ihrer Fragen im Zuge einer (Selbst-)Überprüfung mit “Nein” beantwortet werden, kann und sollte frühzeitig nachgebessert werden. Nachgebessert werden sollte übrigens auch die Prüfliste selbst: Eine kontinuierliche Weiterentwicklung von KI-Produkten erfordert auch eine fortwährende Anpassung ihrer zugehörigen Überprüfungsmechanismen.

Fazit

Ethische Überlegungen bzgl. KI gehören in die Mitte der Kultur eines (daten-getriebenen) Unternehmens, das langfristig von KI profitieren will. Eine gängige Befürchtung ist jedoch, dass die Einhaltung ethischer Prinzipien bei der Entwicklung und Anwendung von KI-Produkten — bspw. durch höhere Kosten und längere Entwicklungszyklen — zu Wettbewerbsnachteilen führt. Unserer Meinung nach ist das Gegenteil der Fall: Selbstverpflichtungen, deren Einhaltung und die Orientierung an “best practices” wie der Nutzung von Prüflisten führen einerseits zu sichereren Produkten und damit zu Vertrauen Ihrer Kund*innen, Partner*innen und Mitarbeiter*innen in Ihre KI-Systeme, andererseits zu werthaltigeren Produkten und damit zu Wettbewerbsvorteilen. Klar ist auch: Selbst wenn heute ethische Fragen bei der Entwicklung und Anwendung von KI-Systemen noch nicht überall im Zentrum stehen, morgen werden sie es, denn KI-Zertifizierungen werden über kurz oder lang Realität.