Ethik künstlicher intelligenter Systeme

Der folgende Blogartikel entstand begleitend zu einem Vortrag beim Symposium für Ethik und Nachhaltigkeit an der FH Salzburg. Es wird die Frage beleuchtet ob und wie ggf. Moral in künstlichen intelligenten Systemen umgesetzt werden kann. Es werden einige relevante Grundlagen in Ethik und Artificial Intelligence rudimentär eingeführt, künstliche moralische Akteure und deren Grundlagen vorgestellt und am Ende zwei Anwendungsbeispiele diskutiert.

Der Vortrag und dieser Artikel bauen umfassend auf dem Buch Grundfragen der Maschinenethik von Catrin Misselhorn1 auf und könnten beinahe als Buchvorstellung verstanden werden. Ich versuche darüber hinaus an verschiedenen Stellen konkrete Brücken zu Artificial Intelligence von Russel und Norvig zu schlagen und meine Perspektive aus informatischer und mathematischer Sicht einzubringen.

Das Buch von Misselhorn umfasst 286 Seiten, in welchen sie ihre Argumente ausführlich darlegt und die dafür notwendigen Grundlagen einführt. Die Zusammenfassung verschiedener Argumente und Positionen in diesem Blogartikel ist damit notgedrungen stark verkürzt, aber hoffentlich nicht zu sehr verfälscht. Zudem ist es durchaus ein herausforderndes Unterfangen ein fachfremdes Schriftwerk sachgerecht zusammenzufassen.

Einleitung

Ausgangspunkt für das eingangs erwähnte Symposium ist die Feststellung, dass die COVID Pandemie in vielen Facetten des Alltags der Digitalisierung einen Schub verliehen hat, so etwa auch dem Lehrbetrieb an unserer Hochschule. Rund um den Begriff der Digitalisierung findet sich eine Melange assoziierter Begriffe und einer davon ist jener der Künstlichen Intelligenz. Der Einsatz von intelligenten autonomen Systemen, sei es in der Bildung, in der Pflege, in der Industrie oder im Straßenverkehr, wirft eine Reihe neuer Fragen der Ethik auf.

Prof. Misselhorn stellt in ihrem Buch Grundfragen der Maschinenethik einen systematischen Zugang zu diesem Thema vor. Hierbei präsentiert sich Maschinenethik in folgendem Sinne als neue Disziplin: Maschinenethik ist Ethik für Maschinen. Im Gegensatz dazu handelte bisherige Technikethik von der Ethik für Menschen im Umgang mit Technik. Während Technikethik sich in den vergangenen Jahrzehnten etabliert hat, beispielsweise in Form von Ethikkommissionen oder parlamentarischer Technikfolgenabschätzung, gilt dies noch nicht für die Maschinenethik.

Der Unterschied zwischen Maschinenethik und bisheriger Technikethik dreht sich vorrangig um die Frage, wer Akteur ist. Hinsichtlich Maschinenethik können wir weiters die zentrale Frage stellen:

Kann eine Maschine ein moralischer Akteur sein?

Die jüngeren Erfolge im Bereich maschinellen Lernens, beispielsweise Deep Reinforcement Learning, verschieben eindrucksvoll die Grenzen der praktischen Realisierbarkeit von autonomen Systemen und befeuern damit die Relevanz von Maschinenethik ganz wesentlich.

Ethik und Moral

Man kann zwischen Moral und Ethik wie folgt unterscheiden: Moral bezeichnet die gelebten gesellschaftlichen Normen, die Wertevorstellungen, den Kodex. Ethik hingegen ist die Philosophie der Moral. Ethik beschäftigt sich mit der Frage, wie man handeln soll.2

Ethik kann in mehrere Teilbereiche aufgeteilt werden. Misselhorn erwähnt hier die deskriptive Ethik, welche die gelebte Moral untersucht und beschreibt, und die normative Ethik, welche konkrete Normen untersucht und erarbeitet.

Landkarte der Ethik

Misselhorn gibt für drei normative Ethiken eine Einführung: Tugendethik, Kantische Ethik und Utilitarismus. Die normativen Ethiken können wir außerdem in weitere Kategorien einteilen. Für unsere Zwecke unterschieden wir wie folgt:

  • Deontologische Ethik umfasst jene Ethiktheorien, welche die Handlung bzw. die Pflicht in den Fokus stellt. Dazu gehört die Tugendethik, etwa jene der Antike. Dazu gehört auch die Kantische Ethik mit dem kategorischen Imperativ. Dieser besagt, dass man nur nach der Maxime handeln soll, von der man zugleich wollen kann, dass sie allgemeines Gesetz wird.

  • Konsequentialistische Ethik setzt im Gegenzug dazu die Folge einer Handlung in den Fokus. Ein Vertreter davon ist der Utilitarismus. Dieser sagt, dass man so handeln soll, dass das Glück gegenüber dem Leid gesamtheitlich maximiert wird. Hierbei spielt die Handlung an sich keine Rolle, sondern lediglich ihre Auswirkung.

Als Informatiker erkenne ich eine gewisse Analogie zu Typsystemen von Sprachen: In einem gewissen Sinn scheint mir das Typsystem von Python einem konsequentialistischem Prinzip zu folgen: nicht der Typ eines Objekts selbst ist entscheidend bei der Frage der Zulässigkeit, sondern (lediglich) seine äußerliche Wirkung in Form von Methoden und Attributen. (Das erinnert mich an einen guten Freund von mir, der mir erzählte, dass er das Konzept von objektorientierter Programmierung besser verstand, als er die Parallele zu Platons Ideenlehre (siehe auch Höhlengleichnis) erkannte.)

Basierend auf dieser Landkarte der Ethik und insbesondere der drei konkreten normativen Ethiken (Kant, Tugend, Utilitarismus) können wir als Orientierung gleich folgende Frage aufwerfen:

Wenn überhaupt, welche konkreten normativen Ethiken wären für Maschinen anwendbar?

Analog zu artificial intelligence (AI) kann nun der Begriff der artificial morality (AM) gebildet werden. Eine äußert tief ansetzende, grundsätzliche Frage ist jene nach der Existenz von starker AI, also die Fähigkeit einer allgemeinen Problemlösungskompetenz anstatt problemspezifischer Fähigkeiten. Analog könnte man, so nehme ich an, also nun auch die Frage nach der Existenz von starker AM stellen, also der Fähigkeit von Maschinen in allgemeinen Situationen nach moralischen Gesichtspunkten zu handeln.

Doch Misselhorn argumentiert, dass Maschinenethik bereits bei deutlich bodenständigeren Voraussetzungen zum Tragen kommt:

Darf ein Staubsaugerroboter Tiere töten?

Um also in den Fragen der Maschinenethik voran zu kommen, müssen folgende Konzepte geklärt werden:

  • Was kennzeichnet einen moralischen Akteur und kann dies auf eine Maschine zutreffen?
  • Was kennzeichnet Autonomie und moralisches Handeln?

Intelligente künstliche Systeme

Künstliche Intelligenz

Ein Standardbuch zu AI ist Artificial Intelligence von Russel und Norvig. Sie zeigen gleich eingangs verschiedene Wege der Begriffsklärung für AI. Zwei häufige Herangehensweisen sind:

  1. Es geht um künstliche Systeme, welche in der Lage sind per se menschliche Leistungen zu vollbringen. Beispiele dafür sind maschinelles Bild- und Sprachverstehen.

  2. Es geht um künstliche Systeme, welche in der Lage sind rational zu handeln, eine Problemlösungsfähigkeit oder Deduktionsfähigkeit aufweisen. Beispiele hierfür wären Schachcomputer.

Die verschiedenen Zugänge zu AI lassen sich anhand zweier Dimensionen einordnen: Menschlichkeit versus Rationalität, sowie Denken versus Handeln. Dies ergibt vier Kombination anhand derer man Zugänge zu AI diskutieren kann. Die verschiedenen Zugänge führen zu einer Fülle von Fachgebieten, die AI zu einer stark interdisziplinären Angelegenheit machen:

  • Philosophie und Linguistik
  • Mathematik und Ökonomie
  • Computerwissenschaften, Regelungstechnik und Kybernetik
  • Neurowissenschaften und Psychologie

Standardmodell intelligenter Agenten

Russel und Norvig stellen ein Standardmodell für intelligente Agenten vor. In diesem Modell interagiert ein Agent mit seiner Umgebung wie folgt:

  • Der Agent nimmt Zustände der Umgebung durch Perzeptionen wahr.
  • Der Agent setzt Aktionen basierend auf der Sequenz der Perzeptionen.

Standardmodell des intelligenten Agenten

Wir bezeichnen den Agenten als intelligent, wenn er rational das Richtige tut. Hierfür wird ein Performancemaß angegeben, welches die Umgebungszustände bewertet, auf welche die Agentenaktionen wirkten. Das Performancemaß erfasst somit den Erfolg des Agenten hinsichtlich einer konkreten Problemstellung. Aus philosophischer Sicht handelt es sich demnach um eine Spielart des Konsequentialismus: Der Fokus liegt auf den Folgen der Handlungen.

Russel und Norvig führen weiter aus, dass sich der Agent aus einer Agentenarchitektur und einem Agentenprogramm zusammensetzt:

  • Das Programm ermittelt Aktionen aus der Perzeptionssequenz.
  • Die Architektur legt die Sensoren und Aktoren fest, welche je die Perzeptionen liefern und Aktionen entgegennehmen.

Agentenarchitektur

Das Programm kann nun über verschiedene Methoden gewonnen werden. Etwa:

  • Es könnte von einer mathematischen Analyse hinsichtlich optimalen Handelns oder aus der Spieltheorie stammen. Für Tic Tac Toe etwa lassen sich die optimalen Züge einfach und direkt bestimmen. Es gibt aber auch logische Deduktionssysteme und automatische Beweissysteme, etwa SAT- und SMT-Solver, wie den z3 Theorem Prover.
  • Das Programm könnte von statistischen Modellen stammen, die wir manuell erstellen. Es gibt aber auch lernende Agenten: Durch maschinelles Lernen wird das Programm bzw. werden zugrundeliegende Modelle aus Daten bzw. Explorationen der Umgebung generiert. Lernende Agenten können auch Anpassungsfähigkeit aufweisen. Weiters unterscheiden wir beim maschinellen Lernen zwischen überwachtem, nichtüberwachtem und bestärkendem Lernen, sowie Varianten und Mischformen davon, wie teilüberwachtem oder schwach überwachtem Lernen.

Die bislang entwickelten Methoden und Ansätze, z.B. logische Deduktionssysteme, künstliche neuronale Netze, oder Wissensgraphen, eignen sich stets nur für sehr spezifische Problemstellungen. Beispielsweise seien Endoskopieaufnahmen vom Dickdarm gegeben und es soll eine Klassifikation hinsichtlich Krebserkrankung geschehen. Oder es sei eine Schachaufstellung gegeben und es soll ein guter nächster Zug bestimmt werden.

Wir sprechen hier nicht von einer allgemeinen AI, sondern von konkreten technischen Lösungen für konkrete, abgegrenzte Problemstellungen. Bereits das autonome Fahren eines Autos im Straßenverkehr ist eine ausgesprochen anspruchsvolle Herausforderung, vor allem, wenn der Einsatz nicht auf Szenarien mit vergleichsweise einfacher Struktur (z.B. Autobahn) reduziert wird, sondern auch unklare, dynamische Situationen im Stadtverkehr zulässig sind.

Moralische künstliche Systeme

Moralische Akteure

Die Frage ist nun, ob ein intelligenter Agent im obigen Sinn auch ein moralischer Akteur sein kann. (Und wenn er kann, muss er dann auch?) Wechseln wir zurück zu Misselhorn. In ihrem Buch präsentiert Sie nun die vier Ausbaustufen moralischer Akteure nach Moor:

  1. Ethical impact agents bewirken moralische Folgen aber setzen selbst keine Handlung. Misselhorn führt die Uhr als Beispiel an, welche eine Auswirkung hinsichtlich der Tugend der Pünktlichkeit hat. Aktuellen politischen Bezug hat in Österreich vielleicht der Tachometer.

  2. Implicit ethical agents setzen Handlungen in denen sich moralische Wertvorstellungen implizit niederschlagen. Misselhorn führt den Bankomat an, bei dem eine Überprüfung hinsichtlich Kontoüberziehung stattfindet. Um beim vorherigen Tachometer anzuschließen, hätte ich den Abstandsregeltempomat angeführt, welcher automatisch bremst, um den Abstand zum vorfahrenden Auto einzuhalten.

  3. Explicit ethical agents treffen explizit moralische Handlungsentscheidungen und erkennen dafür moralisch relevante Informationen. Hier wäre möglicherweise der Staubsaugerroboter anzuführen, der Tiere explizit verschont. Beim autonomen Fahren wäre vielleicht ein System anzuführen, welches im Falle eines sicheren Unfalls jene Handlungsoption wählt, welche aus moralischer Sicht zu bevorzugen wäre.

  4. Fully ethical agents verfügen darüber hinaus über Bewusstsein, Denkvermögen und Willensfreiheit.

Ob es fully ethical agents geben kann, ist äußert fraglich. Die Existent der Willensfreiheit ist selbst beim Menschen keineswegs geklärt und aus naturwissenschaftlicher Sicht fraglich. Wir wollen also diese Stufe nicht näher beleuchten.

Den weiter oben angeführten Begriff der starken AM könnte man zwischen Stufe 3 und 4 wie folgt sehen: Für eine AM, welche mit allgemeinen moralischen Situationen umgehen kann, muss meines Erachtens nicht zwingend ein Bewusstsein angenommen werden.

Misselhorn führt weiter an, dass man zwischen implicit und explicit ethical agents noch die Zwischenstufe des moralischen Ratgebers positionieren kann. Hier gibt der Akteur eine moralische Handlungsempfehlung für den Menschen ab, aber die Handlung verbleibt beim Menschen.

Die interessante Stufe also jene vom explicit ethical agent. Hier führt Misselhorn an, dass sich die grundsätzliche Frage stellt, ob Maschinen zum moralischen Handeln fähig sind. Für Moor reicht das Argument, dass diese positive oder negative Auswirkung auf den Menschen haben und somit moralisches Handeln gegeben ist. Misselhorn hingegen untersucht folgende Frage näher:

Was gilt als (moralische) Handlung?

Handlungsfähigkeit

Im Standardmodell von intelligenten Agenten ist die Handlung durch die Aktionen dargestellt. Misselhorn sagt: Die Handlung in Maschinen ist eine Funktionen. Es tun sich zwei grundlegende Unterschiede zu Handlungen in biologischen Lebewesen auf:

  1. Es gibt klar definierte Grenzen für die Handlungen. Sie werden im obigen Bild durch die Agentenarchitektur verkörpert: Die verfügbaren Sensoren und Aktoren stellen diese Grenzen dar.

  2. Sie sind vom Menschen gebaut und verfügen nach Misselhorn über keine intrinsischen Bedürfnisse.

Es gibt nun zwei Dimensionen der Handlungsfähigkeit: Die Rationalität und die Fähigkeit zum Initiieren von Verhalten. Hinsichtlich des Initiierens von Verhalten merkt Misselhorn an, dass ein Naheverhältnis zum Begriff der Autonomie besteht und diese beiden Konzepte teilweise auch gleichgesetzt werden. Nach Darwall gibt es aber diese vier Formen der Autonomie:

  1. Personelle Autonomie bezieht sich auf Handeln nach individuell ausgebildeten Werten.
  2. Moralische Autonomie bezieht sich auf Handeln nach moralischer Überlegungen.
  3. Rationale Autonomie bezieht sich auf Handeln nach rational gewichtigsten Gründen.
  4. Handlungsautonomie ist die schwächste Form und ist bereits gegeben, wenn ein Handlungen vorliegen, die einem Akteur zugeordnet werden können.

Die ersten drei unterscheiden sich von der vierten Form dadurch, dass aus Gründen gehandelt wird. Dies führt zum Begriff der Selbstursprünglichkeit. Dieser Begriff ist abzugrenzen von der Akteurskausalität, welche darin besteht, dass das Initiieren von Handlung ohne Ursache geschieht. Hier würden wir an die schwierige Frage nach der Existenz vom freien Willen anschließen, was wir nicht tun.

Genuines Handeln, also Handeln im strengeren Sinn, umfasst für Misselhorn nun Rationalität sowie Selbstursprünglichkeit. Sie führt weiters aus, dass es nach Floridi und Sanders drei Bedingungen für Selbstursprünglichkeit gibt:

  1. Interaktivität mit der Umwelt
  2. Eine gewisse Unabhängigkeit von der Umwelt
  3. Anpassungsfähigkeit (der Verhaltensregeln durch Umweltveränderungen)

Punkt 1 und 3 sind bei intelligenten Agenten nach unserer obigen Ausführung gegeben. Hinsichtlich Punkt 2, also der Unabhängigkeit von der Umwelt führt Misselhorn folgenden Gedanken an:

Der Eindruck von Unabhängigkeit ist durch Unvorhersehbarkeit gegeben.

Unabhängigkeit bedeutet, dass der Akteur interne Zustände bildet, die nicht unmittelbar auf die Wirkung der Umwelt zurückgeführt werden. Ich würde sagen, dass diese Unabhängigkeit als eine gewisse „Eigenständigkeit“ aufgefasst werden kann. Wenn der Akteur Verhalten aufweist, das nicht vorhersehbar ist, also sich nicht aus den Wirkungen der Umwelt direkt erklärt, dann können wir zumindest den Eindruck von Unabhängigkeit (resp. Eigenständigkeit) gewinnen.

Eine Unvorhersehbarkeit ist bei Maschinen wie folgt gegeben:

  1. Wir haben nicht-deterministische und randomisierte Verfahren für das Agentenprogramm.

  2. Verschiedene Verfahren des maschinellen Lernens, etwa tiefe neuronale Netze, haben die Eigenschaft, dass wir deren erlerntes Modell bzw. das resultierende Verhalten des intelligenten Agenten (praktisch) nicht nachvollziehen können.

    Das Stichwort hierzu ist Explainable AI. Hierbei ist anzumerken, dass wir natürlich prinzipiell verstehen, wie ein tiefes neuronales Netz funktioniert, und tatsächlich ist die Funktionsweise mathematisch sogar recht einfach. Aber die schiere Größe der Modelle, d.h. die große Anzahl an Modellparametern, die das Verhalten bestimmen, führt zur praktischen Unnachvollziehbarkeit. Das GPT-3 Sprachmodell von OpenAI umfasst beispielsweise 175 Milliarden Parameter.

    Hierbei ist weiters anzumerken, dass bei geschichteten, vorwärtsgerichten Netzen, jede Schicht eine nichtlineare Transformation durchführt. Jede weitere Schicht führt somit zu einer weiteren Komposition von Nichtlinearität. In diesem Sinne steigt das „Ausmaß der Nichtlinearität“ mit der Tiefe (Anzahl der Schichten) dieses Netzes und daher ist deep learning davon besonders betroffen. Was also technisch unliebsam ist und durch Explainable AI adressiert wird, dient hier als Quelle der Argumentation für Selbstursprünglichkeit.

Dieser Argumentation folgend können wir also nun von der technischen Realisierbarkeit künstlicher moralischer Akteure, insbesondere in Form von explicit ethical agents, ausgehen, oder zumindest vom Eindruck dieser.

Ansätze für Moralimplementierungen

Misselhorn stellt vier Ansätze für Moralimplementierungen vor. Hierbei unterscheidet sie zwischen top-down und bottom-up Ansätzen:

  • Bei den top-down Ansätzen geht sie von konkreten normativen Ethiken aus und diskutiert die direkte Umsetzung in technischen Systemen. Das heißt, zuerst kommen die Ethiksysteme (top) und daraus ergeben sich die konkreten Handlungsentscheidungen (bottom).

  • Bei den bottom-up Ansätzen stehen anfangs nicht explizite Ethiksysteme fest, sondern diese werden aus konkreten Handlungsentscheidungen gewonnen.

Utilitarismus

Dieser Ansatz schließt direkt an die Bemerkung zum Konsequentialismus des Performancemaßes intelligenter Agenten an. Dieses Performancemaß erfasst bei diesem Ansatz den Aspekt der Bilanz aus Lust und Leiden.

Kantische Ethik

In einem Logiksystem wird der kategorische Imperativ implementiert und für konkrete Handlungsfragen findet eine logische Herleitung statt. Wir haben seit einigen Jahrzehnten derartige logische Deduktions- und Beweissysteme, wie weiter oben auch ausgeführt.

Diese werden etwa für die Codegenerierung für automatische Softwaretests, für Verifikation von Hardware und Software verwendet, für Codeoptimierung, für Ressourcenplanung, und so weiter. Tatsächlich war eines der wenigen konkreten Resultate des berühmten Darthmouth workshops 1955, an dem Artificial Intelligence als Gebiet geboren wurde, ein System namens Logic Theorist, welches tatsächlich einen Beweis in der Principia Mathematica vereinfachen konnte.

Ob diese Systeme aber für diesen Einsatz praktisch tragfähig sind, erscheint mir fragwürdig. Die oben angeführten Einsatzzwecke sind inhaltlich stark abgegrenzt und die Spielwiese, in der sie operieren, ist vollständig formalisiert. Das müsste auch hier passieren, inklusive der moralischen Handlungsfrage.

Asimov’sche Gesetze

Die Robotergesetze von Asimov sind eine Aufzählung von Pflichten und damit als Tugendethik ein deontologischer Ansatz. Sie lauten:

  1. Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen.
  2. Ein Roboter muss den Befehlen eines Menschen gehorchen, es sei denn, solche Befehle stehen im Widerspruch zum ersten Gesetz.
  3. Ein Roboter muss seine eigene Existenz schützen, solange dieser Schutz nicht dem Ersten oder Zweiten Gesetz widerspricht.

Bottom-up Ansatz

Anstatt expliziter Regeln (top) wird aus einer Menge von konkreten Handlungsbeispielen (bottom), etwa durch überwachtes maschinelles Lernen eines neuronalen Netzes, ein Modell generiert. Für zukünftige Handlungsfragen befragt man das Modell, welches Antworten basierend auf der Trainingsmenge bestimmt bzw. interpoliert. Misselhorn weist hier auf ein Naheverhältnis zur Tugendethik hin. Mir erscheint zudem eine Brücke zur deskriptiven Ethik zu bestehen, denn das Modell beschreibt die durch die Trainingsdaten gelebte gesellschaftliche Moralvorstellung.

Für überwachtes maschinelles Lernen gibt es zwei Spielarten: Klassifikation und Regression. Ersteres hat zum Ziel eine gewisse Eingabe in gegebene Klassen einzuordnen, z.B. für die Krebsdiagnose basierend auf Dickdarmendoskopiebildern. Bei der Regression führen wir letztendlich eine Funktionsapproximation durch, d.h. wir interpolieren aus bekannten Trainingsdaten. Beispiele hierfür sind diverse Prädiktionsaufgaben.

Aus technischer Sicht stellt sich für mich die Frage, wie man die Handlungsbeispiele in einen passenden mathematischen Raum kodiert, sodass das durch das Netz dargestellte Regressionsmodell bzw. die Interpolation in diesen Räumen sachlich zielführend ist.

Anwendungsbeispiele

Misselhorn diskutiert ausführlich drei Anwendungsbereiche von Maschinenethik: Pflegesysteme, Militärroboter und autonomes Fahren. Hinsichtlich der Studien an unserer Hochschule sind Bereiche der Pflegesysteme und des autonomen Fahrens von primärer Bedeutung.

Pflegesysteme

Es werden neben einer Diskussion zum Für und Wider von Pflegerobotern verschiedene Ethiksysteme für diesen Anwendungsbereich vorgestellt. Hier wollen wir lediglich auf ein utilitaristisches und ein deontologisches System des Ehepaars Anderson kurz eingehen.

Das utilitaristische System ist ein Ethikberater hinsichtlich der Bilanz von Wohlbefinden und Leiden von Handlungen. Es wird für die betroffenen Personen von Handlungen ein numerischer Wert hinsichtlich der Annehmlichkeit (sehr angenehm bis sehr unangenehm) sowie die Eintrittswahrscheinlichkeit erfasst. Daraus wird die utilitaristisch beste Handlungsoption, ich nehme an hinsichtlich des Erwartungswerts der totalen Annehmlichkeitsbilanz, gebildet.

Misselhorn führt an, dass es zweifelhaft ist, ob Utilitarismus als ethischer Ansatz für die Pflege überzeugt. Wie oben schon diskutiert steckt die Agentenarchitektur Grenzen ab und so auch hier. Was also, wenn die präferierte Handlung in moralische Rechte von nicht erfassten Parteien eingreift?

Ein deontologisches System des Ehepaars Anderson folgt diesen drei Prinzipien der Bioethik:

  1. Respekt vor der Autonomie des Patienten
  2. Prinzip dem Patienten keinen Schaden zuzufügen
  3. Prinzip zum Wohl des Patienten zu handeln

Wenn es nun zu einer Konfliktsituation zwischen den Pflichten kommt, dann wird zur Auswahl der besten Handlungsoption ein numerisches Bewertungsschema hinsichtlich der Pflichterfüllung und -verletzung der einzelnen Pflichten eingeführt und jene mit der besten Bilanz gewählt.

Autonomes Fahren

Wir können hinsichtlich der Autonomie beim autonomen Fahren verschiedene Ausbaustufen unterscheiden, vom Einsatz diverser Assistenzsysteme während der Fahrer aber stets lenkt bis hin zur vollen Automatisierung vom Start bis zum Ziel ohne der Notwendigkeit eines Fahrers. In weiterer Folge geht Misselhorn von einer Stufe aus, in welcher der Fahrer jeder beliebigen Nebentätigkeit nachgehen kann und das Auto den Fahrer rechtzeitig informiert, wenn der Fahrer wieder die Führung übernehmen soll.

Eine zentrale Prämisse von Misselhorn ist folgende:

Unfälle werden im Zusammenhang mit autonomem Fahren nicht gänzlich verschwinden, insbesondere im Zusammentreffen mit Menschen, etwa als Autolenker, Radfahrer oder Fußgänger.

Dieser Annahme möchte ich Gedanken hinzufügen. Zum ersten gibt es hier ein gewisses Naheverhältnis zur Funktionalen Sicherheit technischer Systeme. Hier sei angemerkt, dass funktionale Sicherheitstechnik Unfälle, auch mit Todesfolge, nicht kategorisch ausschließt. Für den Automobilbereich ist die ISO 26262 normgebend: Es findet eine Risikoabwägung statt, welche das Ziel hat, eine Risikominimierung auf ein gesellschaftlich akzeptiertes Maß durchzuführen. Festzuhalten ist jedoch: Das Eintreten eines Unfalls (mit Todesfolge) ist mit einer positiven Eintrittswahrscheinlichkeit behaftet.3

Weiters scheint mir im Zusammenhang mit dem autonomen Fahren der Vertrauensgrundsatz ein zentraler Aspekt zu sein. Als menschlicher Verkehrsteilnehmer kann ich grundsätzlich auf das richtige Verhalten anderer Verkehrsteilnehmer vertrauen. Den Vertrauensgrundsatz gibt es, denn ohne ihn wäre der Verkehr in der Regel lahmgelegt, da jedes verkehrswidrige Verhalten anderer Verkehrsteilnehmer berücksichtigt werden müsste. Ergo wollen wir auch den autonomen Fahrzeugen den Vertrauensgrundsatz zugestehen.

Misselhorn führt nun an, dass Menschen bei Unfallsituationen schnell handeln müssen und somit instinktiv reagieren. Wenn bei retrospektiver Betrachtung eine moralisch falsche Handlung festgestellt wird, dann ist dies wegen der besonderen Situation zu entschuldigen. Im Falle des autonomen Fahrens stellen sich jedoch moralische Fragen vorab.

Analog zu den Asimov’schen Gesetzen wurden folgende drei Gesetze vorgeschlagen:

  1. Ein automatisiertes Fahrzeug sollte nicht mit einem Fußgänger oder Radfahrer zusammenstoßen.
  2. Ein automatisiertes Fahrzeug sollte nicht mit einem anderen Fahrzeug zusammenstoßen, es sei denn, das Vermeiden einer solchen Kollision steht mit dem ersten Gesetz in Konflikt.
  3. Ein automatisiertes Fahrzeug sollte mit keinem Objekt in der Umgebung zusammenstoßen, es sei denn, das Vermeiden einer solchen Kollision steht mit dem ersten oder zweiten Gesetz in Konflikt.

Es wird jedoch rasch klar, dass dieser Ansatz der Komplexität realer Situationen nicht standhält. Breit bekannt ist in diesem Zusammenhang das Trolley Problem geworden. Das Trolley Problem ist ein Gedankenexperiment, welches auf Engisch (1930) zurückgeht, und in der Fassung von Foot (1967) zusammengefasst folgt lautet:

Eine Straßenbahn fährt unkontrolliert den Schienen entlang und droht fünf Personen zu überrollen. Es kann eine Weiche gestellt werden, um die fünf Personen zu retten, jedoch eine Person auf der anderen Bahn zu überrollen. Darf durch Umlegen der Weiche der Tod einer Person zugunsten der fünf anderen Leben in Kauf genommen werden?

Die konsequentialistische und die deontologische Ethik kommen hier möglicherweise zu unterschiedlichen Schlüssen: Aus utilitaristischer Sicht etwa wird die das Umlenken bejaht, da, grob gesagt, netto weniger Menschen getötet werden. Aus der Sicht vieler Pflichtenethiken wird jedoch die Pflicht nicht zu töten höher gewertet als die Pflicht zu retten, wodurch hier die Tendenz zu einem Nein gegeben sein kann.

Die Moral Machine ist ein Projekt am MIT, wo der Besucher aufgefordert wird die richtige Handlungsoptionen für ein autonomes Fahrzeug in einer Serie von Szenarien analog zum Trolley Problem zu beantworten. Beispiel: Eine Gruppe von fünf Personen und eine Gruppe mit einer Person befinden sich je auf verschiedenen Orten eines Schutzweges und ein autonomes Auto kann nicht mehr rechtzeitig bremsen, sodass höchstens eine der beiden Gruppe den Unfall überleben kann. Die Szenarien werden dann modifiziert, etwa:

  • Gibt man fünf Älteren oder Kranken den Vorzug gegenüber einem Kind?
  • Was, wenn die Gruppe von fünf Personen regelwidrig (z.B. bei einer roten Ampel) den Schutzweg betreten haben?

Besucher der Website unterschiedlicher Herkunft tendieren in den Antworten stark unterschiedlich. Eine weitere Frage ergibt sich, wenn eine Option darin besteht, dass die Insassen des autonomen Fahrzeugs zu Tode kommen. Wenn die Fahrzeugbesitzer einen Einfluss auf die Möglichkeit dieser Option haben, dann ergibt sich hier schnell ein Gefangenendilemma:

Die Möglichkeit der Handlungsoption der Opferung der Fahrzeuginsassen erhöht gesamtheitlich die Nutzensbilanz (hinsichtlich der Bilanz zwischen versehrten und getöteten Menschen). Daher ist die optimale Nutzensbilanz gegeben, wenn alle diese Möglichkeit zulassen. Andererseits besteht aus spieltheoretischer Sicht das einzige Nash-Gleichgewicht darin, dass niemand die Möglichkeit aktiviert, denn in allen anderen Fällen gibt es jemanden der die Möglichkeit aktiviert hat, und diese zu deaktivieren verbessert seine (individuelle) Strategie.4

Ob jedoch das Trolley Problem ein adäquates Modell für das autonome Fahren darstellt, kann in Frage gestellt werden. Himmelreich5 hat vier Argumente dafür:

  1. Konsistenz der Annahmen: Das Trolley Problem zeichnet sich durch Unausweichlichkeit und Steuerbarkeit aus, also ein Unfall wird passieren, aber wir haben die Möglichkeit zwischen Handlungsoptionen zu wählen.

    Himmelreich argumentiert, dass beides gleichzeitig beim autonomen Fahren nicht gegeben ist. Wenn etwa Unausweichlichkeit gegeben ist, dann argumentiert Himmelreich mit einem technischen Gebrechen, und daher ist auch die Annahme von Steuerbarkeit nicht mehr gegeben. Hier scheint mir aber die unzutreffende Annahme versteckt zu sein, dass Unausweichlichkeit stets durch technischer Gründe verursacht wird.

  2. Top-down Ansatz: Himmelreich argumentiert, dass das Trolley Problem von einem technischen top-down Ansatz ausgeht, in dem dann diese moralischen Entscheidungen getroffen werden. Aber die tatsächlichen technischen Umsetzungen folgen einem bottom-up Ansatz, in der diese expliziten Handlungsoptionen des Trolley Problems nicht unmittelbar vorliegen.

    Möglicherweise hat dieser Punkt ein Naheverhältnis zur Frage, ob wir es mit explicit oder implicit ethical agents in dieser Sache zu tun haben.

  3. Moral versus Politik: Weiters argumentiert Himmelreich, dass die Lösung des Problems eigentlich auf politischer Ebene (Gesellschaft) und nicht auf moralischer Ebene (Individuum) adressiert werden muss. Dieser Aspekt schließt möglicherweise an das Gefangenendilemma von oben an.

  4. Unsicherheit versus Gewissheit: Autonomes Fahren entspricht nicht dem diskreten deterministischen Modell vom Trolley Problem, denn wir haben es mit Situations- und Handlungsunsicherheit zu tun, welche sich in probabilistische technische Umsetzungen niederschlagen.

    Dieser Punkt scheint mir allerdings primär eine Modifikation des bisherigen Trolley Problems aufzuzeigen bzw. an Punkt 2 hinsichtlich Aspekten der technischen Umsetzung anzuschließen.

Zusammenfassung

Die Wichtigkeit von Ethik und AI wird mitunter in Artificial Intelligence von Russel und Norvig (2020) diskutiert. Das Kapitel §27.3 zu The Ethics of AI enthält hierzu die Unterkapitel

  • Lethal autonomous weapons
  • Surveillance, security and privacy
  • Fairness and bias
  • Trust and transparency,

wobei dadurch der Fokus vorrangig auf Ethik im Umgang mit Maschinen bzw. AI liegt.

Misselhorn hingegen widmet ihr Buch vorrangig der Maschinenethik im Sinne von Ethik für Maschinen. Sie behandelt grundlegende Fragen hinsichtlich moralischer Akteure und deren Charakteristika, bis hin zu möglichen Ansätzen zur Moralimplementierung in technischen Systemen, praktischen Anwendungsgebieten und Umsetzungsbeispielen.

In der Vergangenheit haben uns wesentliche technische Fortschritte immer wieder mit schweren philosophischen Fragen konfrontiert, beispielsweise die Nukleartechnologie oder die Gentechnik. AI ändert die Qualität der Diskussion insofern, als dass wir hier nicht über Technikfolgen, also den ethischen Umgang mit Technologie, diskutieren, sondern Ethik für Maschinen selbst.

  1. Catrin Misselhorn ist Philosophin, hatte bis 2019 den Lehrstuhl für Wissenschaftstheorie und Technikphilosophie an der Universität Stuttgart inne und ist 2019 Professorin an der Universität Göttingen. 

  2. Kant stellt in der Kritik der reinen Vernunft drei Fragen, um welche sich „alles Interesse seiner Vernunft“ vereinigt: Was kann ich wissen? Was soll ich tun? Was darf ich hoffen? Die zweite Frage beantwortet laut Kant die Moral, wenn auch „bloß praktisch“. An anderer Stelle führt er weiters noch die vierte Frage der Philosophie an: Was ist der Mensch? 

  3. Selbst ein Ereignis \(X\) mit Eintrittswahrscheinlichkeit \(P(X) = 0\) ist kein unmögliches Ereignis. Ziehen wir eine reelle Zufallszahl gleichverteilt in \([0, 1]\), dann hat das Ereignis \(X = \{0.5\}\) eine Wahrscheinlichkeit von \(0\): Es ist natürlich möglich die \(0.5\) zu ziehen, aber die Wahrscheinlichkeit ist \(0\). Selbst die Wahrscheinlichkeit eine rationale Zahl zu ziehen, und davon gibt es in \([0, 1]\) immerhin unendlich viele, ist weiterhin \(0\). 

  4. Damit das „Spiel“ symmetrisch ist, nehmen ich hier an, dass jeder Mensch zeitweise Fußgänger und zeitweise Insasse eines autonomen Fahrzeugs ist, sodass es für den individuellen „Spieler“ keine Assoziation zur Rolle „Fußgänger“ oder „Insasse“ gibt. 

  5. Johannes Himmelreich, Never Mind the Trolley: The Ethics of Autonomous Vehicles in Mundane Situations, 2018, https://doi.org/10.1007/s10677-018-9896-4