Gast
09-08-2016, 20:30
Langsam kommen ja die selbstfahrenden Automobile, da muss man sich natürlich auch überlegen, ob das Gefährt im Konfliktfall seine Insassen opfert, um andere Leben zu retten....
Mitarbeiter des MIT Media Lab wüssten gerne, welche Präferenzen die Leute so haben, wenn es heißt: der Obdachlose oder der Krebsforscher, der Bankräuber oder der Arzt, das Kind oder der Hund...
hier ein Zeit-Artikel dazu:
Verkehr: Wen soll Ihr fahrerloses Auto totfahren? |*ZEIT ONLINE (http://www.zeit.de/digital/internet/2016-08/verkehr-wen-sollen-fahrerlose-autos-ueberfahren)
Ganz unten auf der Ergebnisseite wird den Nutzern mitgeteilt, dass ihre Entscheidungen anonymisiert in die Forschungsarbeit des Media Labs einfließen. So soll sichergestellt werden, dass die Teilnehmer ihre tatsächliche Meinung zum Ausdruck bringen. Und darunter gibt es die Möglichkeit, die eigenen Eingaben durch einen Klick zu löschen, damit sie nicht vom MIT Media Lab verwendet werden.
Achtung: wenn man auf "play again" drückt, werden die Ergebnisse verwertet, angeblich anonym.
Konzeptionell und inhaltlich wirkt die Moral Machine fragwürdig. Den Teilnehmern wird nicht genau erklärt, in welche Forschungsarbeit ihre Daten einfließen, der Link zum nachträglichen Opt-out ist auffällig unauffällig geraten, und Play again ist eine verharmlosende Bezeichnung, die verschleiert, dass die Entscheidungen der Nutzer verwertet werden sollen.
Edit: man sitzt nicht selbst im Auto:
You are outside the scene, watching it from above.
Nothing will happen to you.hier der Link zu dem Test:
Moral Machine (http://moralmachine.mit.edu/)
Mitarbeiter des MIT Media Lab wüssten gerne, welche Präferenzen die Leute so haben, wenn es heißt: der Obdachlose oder der Krebsforscher, der Bankräuber oder der Arzt, das Kind oder der Hund...
hier ein Zeit-Artikel dazu:
Verkehr: Wen soll Ihr fahrerloses Auto totfahren? |*ZEIT ONLINE (http://www.zeit.de/digital/internet/2016-08/verkehr-wen-sollen-fahrerlose-autos-ueberfahren)
Ganz unten auf der Ergebnisseite wird den Nutzern mitgeteilt, dass ihre Entscheidungen anonymisiert in die Forschungsarbeit des Media Labs einfließen. So soll sichergestellt werden, dass die Teilnehmer ihre tatsächliche Meinung zum Ausdruck bringen. Und darunter gibt es die Möglichkeit, die eigenen Eingaben durch einen Klick zu löschen, damit sie nicht vom MIT Media Lab verwendet werden.
Achtung: wenn man auf "play again" drückt, werden die Ergebnisse verwertet, angeblich anonym.
Konzeptionell und inhaltlich wirkt die Moral Machine fragwürdig. Den Teilnehmern wird nicht genau erklärt, in welche Forschungsarbeit ihre Daten einfließen, der Link zum nachträglichen Opt-out ist auffällig unauffällig geraten, und Play again ist eine verharmlosende Bezeichnung, die verschleiert, dass die Entscheidungen der Nutzer verwertet werden sollen.
Edit: man sitzt nicht selbst im Auto:
You are outside the scene, watching it from above.
Nothing will happen to you.hier der Link zu dem Test:
Moral Machine (http://moralmachine.mit.edu/)