Ein anderes Szenario sieht so aus: ein menschlicher Politiker bzw. ein Algorithmus muss entscheiden, ob er mit einer 50%-Chance 100% der Bevölkerung vor einem Tsunami rettet. Wenn man sich die beiden Extreme ansieht - eine große Menge an Menschen stirbt oder alle überleben - wird bei einem Fall von Erfolg der menschliche Politiker mehr gelobt als der Algorithmus. Umgekehrt bei einem Misserfolg - hier unterscheiden sich die Meinungen sehr deutlich. Moralische Entscheidungen wiegen bei Menschen einfach stärker.
Alle zu retten, auch wenn man dabei einen Misserfolg erleben kann, ist eine hohe moralische Entscheidung, die automatisch als besser bewertet wird. Aber auch die Frage nach Verantwortung ist hier wichtig: wenn die Verantwortung abgegeben kann, also z.B. ein Mensch für eine fehlerhafte Entscheidung gefeuert werden kann, wird das von den Testpersonen immer positiver wahrgenommen.