新浪新闻客户端

【双语汇】Trolley Problem/电车难题

【双语汇】Trolley Problem/电车难题
2019年08月21日 14:50 参考消息
原标题:【双语汇】Trolley Problem/电车难题

伦理学中的一个经典思想实验(thought problem),近日因为自动驾驶(self-driving)的兴起,重新回归人们的视线,这就是电车难题(trolley problem)。这一涉及生命价值的两难选择,常让人抓耳挠腮,感到无从抉择。

电车难题最早是由哲学家菲莉帕·富特(Philippa Foot)在1967年提出的思想实验:假设一辆失控的有轨电车正驶向五个被捆绑在一起躺在轨道上的人,拯救他们的唯一方法是扳动道闸(pull the lever),让电车驶向另一条轨道;与此同时,另一条轨道上躺着的一个人就会因此丧生。你此刻正是手握道闸的那个人,会如何抉择?是什么也不做放任五个人丧生;还是主动扳动道闸,拯救五个人,同时也间接成为杀害另一个无辜者的凶手呢?

这一思想实验涉及对个体利益和群体利益(individual v.s. collective interests)的取舍,其设计初衷是用来批判哲学中的功利主义(utilitarianism)理论,即大部分道德决策都是根据“为最多的人提供最大的利益”的原则做出的。当自动驾驶技术逐步走进我们的生活,这一学院派哲学讨论开始更具现实意义。当事故无法避免时,面对伦理两难局面(ethical dilemmas),自动驾驶汽车该如何决策?谁的安全应该放在首位?

也许你会说,我们可以让自动驾驶汽车遵循最小化伤害(minimize harm)准则,但你同样会面临“电车难题”这样的道德决策(moral decision-making)。假设未来你要购买一辆无人驾驶汽车,你是愿意买一辆在任何时候都以拯救尽可能多的人为准则的车(甚至为此牺牲你一个人的生命),还是愿意买一辆以拯救你的生命为第一要务的车呢?

当人类司机驾驶汽车面临不可避免的事故,很多时候的当下决策源于本能反应(instinctual reaction),而不会被认为是有意为之(deliberate decision)。而对于自动驾驶汽车,情况就复杂得多。

自动驾驶的决策源自于预先写好的程序,需要提前考虑到各种未来可能发生的情况,然后以相关算法为引导。此刻,扮演扳道闸角色的就是自动驾驶汽车背后的程序员,他们将通过写算法代码来预先决定何时扳下道闸。

让程序员们为生命价值编码(programming the value of life into a computer)恐怕会让他们感到压力山大,如此深刻的伦理学思考需要技术人员、设计师、伦理学家、政府官员以及民众更为广泛的讨论。

为解决这一难题,美国麻省理工学院开展了一个有趣的“道德机器”(moral machine)在线实验,以探讨世界不同地区和文化的人们对这一伦理问题的看法。该测试要求用户回答车祸发生时的一系列类似“电车难题”的道德选择问题。实验有来自233个国家和地区的数百万用户参与,最后收回的答案呈现了一些全球共识:如当发生事故时,所有人都一致表现出优先救人类而非动物、救更多的人、救女性而非男性、救儿童而非成年人(prioritize humans over pets, more lives over fewer, women over men, children over adults)。

不过,研究者也发现了一些跨文化的伦理差异(cross-cultural ethical variation)。比如可能受儒家文化和集体主义观念影响,中国和日本参与者显示出希望先救老人而不是年轻人。这些研究成果对于未来开发出在全球都能得到社会认可的机器伦理至关重要。(彭茜)

道德
新浪新闻公众号
新浪新闻公众号

更多猛料!欢迎扫描左方二维码关注新浪新闻官方微信(xinlang-xinwen)

图片故事

新浪新闻意见反馈留言板 400-052-0066 欢迎批评指正

违法和不良信息举报电话:010-62675637
举报邮箱:jubao@vip.sina.com

Copyright © 1996-2019 SINA Corporation

All Rights Reserved 新浪公司 版权所有