Eine neue Untersuchung von Forschern am Institut für Kognitionswissenschaften der Universität Osnabrück zeigt, dass sich die Fähigkeit, wie Menschen moralisch zu entscheiden, auch in Maschinen implementieren ließe. Das könnte den Umgang mit moralischen Dilemmata neu definieren, denen sich autonome Fahrzeuge vielleicht einmal auf der Straße stellen müssten.
Kann ein autonomes Fahrzeug moralisch sein, wie ein Mensch handeln oder so, wie es Menschen voneinander erwarten? Anders als früher gedacht, hat eine Studie erstmals zeigen können, dass sich menschliche Moral modellieren lässt, was heißt, dass maschinell basierte moralische Entscheidungen prinzipiell möglich wären.
Mit Virtual-Reality-Versuchen haben Forscher am Institut für Kognitionswissenschaft der Universität Osnabrück menschliches Verhalten und moralische Wertungen untersucht. Die Ergebnisse wurden im Journal Frontiers in Behavioral Neuroscience publiziert. Immersive VR-Lösungen erlaubten den Autoren, menschliches Verhalten in simulierten Verkehrsszenarien zu studieren.
Die Teilnehmer wurden gebeten, Auto in einer typischen Vorstadtgegend bei Nebel zu fahren, in der sie sich plötzlich unerwarteten und unvermeidbaren Dilemma-Situationen mit Gegenständen, Tieren und Menschen gegenübersahen und entscheiden mussten, was davon verschont werden sollte. Die Ergebnisse wurden mit statistischen Modellen konzeptualisiert, die zu Regeln führten, mit einem zugeordneten Grad an Aussagekraft, um das beobachtete Verhalten zu erklären. Die moralischen Entscheidungen im Hinblick auf unvermeidbare Kollisionen lassen sich gut erklären, wie die Forschungsarbeit gezeigt hat, und mit einer einzelnen Bewertung für jeden Menschen, jedes Tier und jeden Gegenstand modellieren.
Leon Sütfeld, Hauptautor der Arbeit, sagt, dass man bis jetzt davon ausgegangen sei, moralische Entscheidungen seien stark vom Kontext bestimmt und könnten daher nicht modelliert oder mit Algorithmen beschrieben werden. Doch man habe genau das Gegenteil herausgefunden. Menschliches Verhalten in Dilemma-Situationen ließen sich mit einem eher einfachen Modell darstellen, das auf der Einschätzung des Lebenswerts basiert, den die Probanden jedem Menschen, Tier oder unbelebten Objekt zugewiesen hätten. Das lässt vermuten, dass sicfh moralisches Verhalten gut durch Algorithmen erfassen lässt. Diese könnten dann auch in Maschinen zum Einsatz kommen.
Die Ergebnisse der Studie zeitigen wichtige Folgen in der Debatte um das Verhalten autonomer Fahrzeuge und anderer Maschinen, etwa in unvermeidbaren Situationen. So hat eine neue Initiative des Ministeriums für Verkehr und Digitale Infrastruktur (BMVI) 20 ethische Grundsätze in Hinsicht auf autonome Fahrzeuge und deren Verhalten in unvermeidbaren Unfällen aufgestellt und kommt zu dem entscheidenden Schluss, menschliches moralisches Verhalten lasse sich nicht modellieren.
Prof. Gordon Pipa, ein weiterer Autor der Studie, sagt, dass, weil es nun möglich erscheine, Maschinen im Sinne menschlicher moralischer Entscheidungen zu programmieren, die Beteiligung der Gesellschaft in einer dringlichen und ernsthaften Debatte entscheidend sei. Man müsse fragen, ob autonome Systeme moralische Entscheidungen übernehmen sollten und, wenn ja, ob sie moralisches Verhalten nachahmen sollten, indem sie menschliche Entscheidungen nachahmen, ob sie sich an ethischen Theorien ausrichten sollten und, wenn ja, welche das seien und noch wichtiger, wer schuld sei, wenn die Dinge schiefliefen?
Ein Beispiel aus den ethischen Grundsätzen des BMVI lässt ein Kind auf die Straße laufen. Das würde somit als Mitverursacher für das entstehende Risiko eingestuft werden und sich damit für eine Rettung weniger qualifizieren, als ein nicht involvierter Erwachsener, der nur auf dem Gehweg steht. Aber wird diese moralische Einschätzung von den meisten Menschen geteilt, und wie groß ist der Spielraum für Interpretationen?
Selbst wenn man die moralische Entscheidungsmöglichkeit in Maschinen einbaue, seien wir als Gesellschaft immer noch mit einem doppelten Dilemma konfrontiert, gibt Prof. Peter König, Mitautor des Papers, zu bedenken. Zuerst müsse man entscheiden, ob moralische Werte in Verhaltensrichtlinien für Maschinen eingefügt werden können und zweiten, sei das der Fall, ob Maschinen genau wie Menschen agieren sollten.
Autonome Autos sind nach Ansicht der Forscher erst der Anfang einer Entwicklung, die sich mit dem zunehmenden Einsatz von Roboter in Spitälern und anderen KI-Systeme auch andernorts immer stärker entfaltet. Wir befänden uns an der Schwelle zu einem neuen Zeitalter, in dem es klare Regeln brauche, sonst übernähmen die Maschinen das Kommando.