Können selbstfahrende Autos moralisch handeln?

Share on facebook
Share on twitter
Share on linkedin
Share on xing
Share on whatsapp
Share on email
Share on print

Können selbstfahrende Autos moralisch handeln?

Share on facebook
Share on twitter
Share on linkedin
Share on xing
Share on whatsapp
Share on email
Share on print

Eine neue Untersuchung von Forschern am Institut für Kognitionswissenschaften der Universität Osnabrück zeigt, dass sich die Fähigkeit, wie Menschen moralisch zu entscheiden, auch in Maschinen implementieren ließe. Das könnte den Umgang mit moralischen Dilemmata neu definieren, denen sich autonome Fahrzeuge vielleicht einmal auf der Straße stellen müssten.

Eine neue Untersuchung von Forschern am Institut für Kognitionswissenschaften der Universität Osnabrück zeigt, dass sich die Fähigkeit, wie Menschen moralisch zu entscheiden, auch in Maschinen implementieren ließe. Das könnte den Umgang mit moralischen Dilemmata neu definieren, denen sich autonome Fahrzeuge vielleicht einmal auf der Straße stellen müssten.

Kann ein autonomes Fahrzeug moralisch sein, wie ein Mensch handeln oder so, wie es Menschen voneinander erwarten? Anders als früher gedacht, hat eine Studie erstmals zeigen können, dass sich menschliche Moral modellieren lässt, was heißt, dass maschinell basierte moralische Entscheidungen prinzipiell möglich wären.

Mit Virtual-Reality-Versuchen haben Forscher am Institut für Kognitionswissenschaft der Universität Osnabrück menschliches Verhalten und moralische Wertungen untersucht. Die Ergebnisse wurden im Journal Frontiers in Behavioral Neuroscience publiziert. Immersive VR-Lösungen erlaubten den Autoren, menschliches Verhalten in simulierten Verkehrsszenarien zu studieren.

Die Teilnehmer wurden gebeten, Auto in einer typischen Vorstadtgegend bei Nebel zu fahren, in der sie sich plötzlich unerwarteten und unvermeidbaren Dilemma-Situationen mit Gegenständen, Tieren und Menschen gegenübersahen und entscheiden mussten, was davon verschont werden sollte. Die Ergebnisse wurden mit statistischen Modellen konzeptualisiert, die zu Regeln führten, mit einem zugeordneten Grad an Aussagekraft, um das beobachtete Verhalten zu erklären. Die moralischen Entscheidungen im Hinblick auf unvermeidbare Kollisionen lassen sich gut erklären, wie die Forschungsarbeit gezeigt hat, und mit einer einzelnen Bewertung für jeden Menschen, jedes Tier und jeden Gegenstand modellieren.

Leon Sütfeld, Hauptautor der Arbeit, sagt, dass man bis jetzt davon ausgegangen sei, moralische Entscheidungen seien stark vom Kontext bestimmt und könnten daher nicht modelliert oder mit Algorithmen beschrieben werden. Doch man habe genau das Gegenteil herausgefunden. Menschliches Verhalten in Dilemma-Situationen ließen sich mit einem eher einfachen Modell darstellen, das auf der Einschätzung des Lebenswerts basiert, den die Probanden jedem Menschen, Tier oder unbelebten Objekt zugewiesen hätten. Das lässt vermuten, dass sicfh moralisches Verhalten gut durch Algorithmen erfassen lässt. Diese könnten dann auch in Maschinen zum Einsatz kommen.

Die Ergebnisse der Studie zeitigen wichtige Folgen in der Debatte um das Verhalten autonomer Fahrzeuge und anderer Maschinen, etwa in unvermeidbaren Situationen. So hat eine neue Initiative des Ministeriums für Verkehr und Digitale Infrastruktur (BMVI) 20 ethische Grundsätze in Hinsicht auf autonome Fahrzeuge und deren Verhalten in unvermeidbaren Unfällen aufgestellt und kommt zu dem entscheidenden Schluss, menschliches moralisches Verhalten lasse sich nicht modellieren.

Prof. Gordon Pipa, ein weiterer Autor der Studie, sagt, dass, weil es nun möglich erscheine, Maschinen im Sinne menschlicher moralischer Entscheidungen zu programmieren, die Beteiligung der Gesellschaft in einer dringlichen und ernsthaften Debatte entscheidend sei. Man müsse fragen, ob autonome Systeme moralische Entscheidungen übernehmen sollten und, wenn ja, ob sie moralisches Verhalten nachahmen sollten, indem sie menschliche Entscheidungen nachahmen, ob sie sich an ethischen Theorien ausrichten sollten und, wenn ja, welche das seien und noch wichtiger, wer schuld sei, wenn die Dinge schiefliefen?

Ein Beispiel aus den ethischen Grundsätzen des BMVI lässt ein Kind auf die Straße laufen. Das würde somit als Mitverursacher für das entstehende Risiko eingestuft werden und sich damit für eine Rettung weniger qualifizieren, als ein nicht involvierter Erwachsener, der nur auf dem Gehweg steht. Aber wird diese moralische Einschätzung von den meisten Menschen geteilt, und wie groß ist der Spielraum für Interpretationen?

Selbst wenn man die moralische Entscheidungsmöglichkeit in Maschinen einbaue, seien wir als Gesellschaft immer noch mit einem doppelten Dilemma konfrontiert, gibt Prof. Peter König, Mitautor des Papers,  zu bedenken. Zuerst müsse man entscheiden, ob moralische Werte in Verhaltensrichtlinien für Maschinen eingefügt werden können und zweiten, sei das der Fall, ob Maschinen genau wie Menschen agieren sollten.

Autonome Autos sind nach Ansicht der Forscher erst der Anfang einer Entwicklung, die sich mit dem zunehmenden Einsatz von Roboter in Spitälern und anderen KI-Systeme auch andernorts immer stärker entfaltet. Wir befänden uns an der Schwelle zu einem neuen Zeitalter, in dem es klare Regeln brauche, sonst übernähmen die Maschinen das Kommando.

Share on facebook
Facebook
Share on twitter
Twitter
Share on linkedin
LinkedIn
Share on xing
XING
Share on whatsapp
WhatsApp
Share on email
E-Mail
Share on print
Drucken

Ihre Meinung zum Artikel

Abonnieren
Benachrichtige mich bei
guest
0 Comments
Inline Feedbacks
View all comments

Andere Leser haben sich auch für die folgenden Artikel interessiert

Anfang Mai 2018 trafen sich im Unternehmenssitz der Lindner Group in Arnstorf etwa 200 Konstrukteure und der technische Führungskreis von Lindner mit Vertretern von Autodesk und Software-Partnern, um über die Möglichkeiten einer einheitlichen BIM-Strategie für die gesamte Lindner Group zu sprechen – von der Fertigung der Bauteile, Planung und Konstruktion bis hin zur termin- und kostenbewussten Abwicklung komplexer Projekte.

Redaktionsbrief

Tragen Sie sich zu unserem Redaktionsbrief ein, um auf dem Laufenden zu bleiben.

Wir wollen immer besser werden!

Deshalb fragen wir SIE, was Sie wollen!

Nehmen Sie an unserer Umfrage teil, und helfen Sie uns noch besser zu werden!

zur Umfrage

Aktuelle Ausgabe

Topthema: Wie ERP, CAD und PDM zusammenspielen

PLM sorgt für durchgängige Prozessqualität

Mehr erfahren

Tragen Sie sich jetzt kostenlos und unverbindlich ein, um keinen Artikel mehr zu verpassen!

    * Jederzeit kündbar

    Entdecken Sie weitere Magazine

    Schön, dass Sie sich auch für weitere Fachmagazine unseres Verlages interessieren.

    Unsere Fachtitel beleuchten viele Aspekte der Digitalen Transformation entlang der Wertschöpfungskette und sprechen damit unterschiedliche Leserzielgruppen an.