Letztes Update:
20190704130635

Moral für Roboter

16:30
26.06.2019
Ein anderes Szenario sieht so aus: ein menschlicher Politiker bzw. ein Algorithmus muss entscheiden, ob er mit einer 50%-Chance 100% der Bevölkerung vor einem Tsunami rettet. Wenn man sich die beiden Extreme ansieht - eine große Menge an Menschen stirbt oder alle überleben - wird bei einem Fall von Erfolg der menschliche Politiker mehr gelobt als der Algorithmus. Umgekehrt bei einem Misserfolg - hier unterscheiden sich die Meinungen sehr deutlich. Moralische Entscheidungen wiegen bei Menschen einfach stärker. 

Alle zu retten, auch wenn man dabei einen Misserfolg erleben kann, ist eine hohe moralische Entscheidung, die automatisch als besser bewertet wird. Aber auch die Frage nach Verantwortung ist hier wichtig: wenn die Verantwortung abgegeben kann, also z.B. ein Mensch für eine fehlerhafte Entscheidung gefeuert werden kann, wird das von den Testpersonen immer positiver wahrgenommen.

Dr. Diana Mantel

Eine Frage der Schuld

16:21
26.06.2019
Wie kann man Menschen dazu bringen, dass sich aktiver an der Demokratie beteiligen - oder überhaupt daran beteiligen? Augmented Democracy ist hier eine Möglichkeit. Wichtig ist tatsächlich immer die Frage, wie Menschen Maschinen und Roboter beurteilen - und wie sie mit deren Fehlern umgehen. Sind Fehler von Robotern schlimmer oder weniger schlimm?

Dafür ließen Hidalgo und sein Team Leute durch mehr als 80 Szenarien gehen, in denen Menschen oder Technologien einen Fehler gemacht haben. Ein verdächtiger Mann trägt z.B. ein seltsames Paket in die U-bahn - gefährlich oder nicht? Am Ende stellt sich der Mann als ungefährlich heraus, wurde aber von einem menschlichen Angestellten oder einem Roboter erschossen. Dem Menschen wird eher verziehen als dem Roboter - aber das sieht in anderen Szenarien anders aus. 

Dr. Diana Mantel