Innerhalb weniger Augenblicke über Leben und Tod zu entscheiden - diese Verantwortung wird selbstfahrenden Autos in Zukunft obliegen. Doch auf Grundlage welcher moralischen Überlegungen soll sich die künstliche Intelligenz entscheiden, wenn es gilt, ein Menschenleben gegen ein anderes abzuwägen? Ein Dilemma, mit dem jetzt auch Internetnutzer in einem Online-Experiment des MIT konfrontiert werden.
Welches Leben zählt mehr: Das von Frauen oder Männern? Kindern oder Älteren? Ärzten oder Kriminellen? Menschen oder Tieren? Und geht Selbst- immer vor Fremdschutz? Moralische Entscheidungen wie diese müssen in Zukunft von selbstfahrenden Autos binnen Sekundenbruchteilen getroffen werden.
Grundlage für diese Berechnungen können nur unsere eigenen moralischen Prinzipien sein. Doch wie sehen diese aus? Wissenschaftler des MIT wollen dieser Frage in einem Online-Experiment auf den Grund gehen. Ihre "Moral Machine" stellt Internetnutzer vor die schwierige Entscheidung, ein Menschenleben gegen das andere abzuwägen.
[Links nur für registrierte Nutzer]