一个人认为什么是对的,什么是错的;选择应该做什么,不该做什么……这些问题并非大脑里瞬间作了决定,我们的大脑中并没有安装一个按钮,可以像开关一样随手按下去。
很多时候,看似随机的选择,里边包含了我们的文化传统、道德判断、伦理选择、价值评判——
当你看到一个孩子横穿马路即将被车撞上的时候,是冒着风险去救他,还是假装没看到……
每一个置身事外的人,都可以批评那个假装没看到的人,但是假如把你自己放在这个场景之中,你最终会选择怎样做,其实很难说。
我们每一个人都可能遇到这样的难题。
我们只要生活在某个社会,就会遇到价值判断和道德选择——也就是伦理问题。每一个人都经常作这样的选择判断,因此伦理学经常把一些极端问题(类似于一个数学建模或者物理实验)推到我们面前,让我们回到生存现实中思考问题。
“电车难题”是伦理学上一个非常著名的题目,最早由一位伦理学家提出来,他大致设想了一个这样的情景:
你站在天桥上,桥下是一条铁轨,铁轨上边有五个工人正在工作,这时候远处有一列失控的电车开过来,眼看就要撞上这五个工人。如果铁轨上有个扳道工把这个电车引上岔道,这五个工人就安全了,但是现在没有扳道工,已经来不及了。这时候你身边走过一个胖子,如果你把他推下天桥,刚好落到铁轨上,就可以堵住失控的电车,这五个工人就得救了。
那么:你该把这个胖子推下去,牺牲他一个救五个工人吗?
也许你觉得这个命题很简单:那就把胖子推下去,他一个人牺牲了能救五个人嘛。
那么跟着问题就来了:假如这个胖子是你好朋友呢,是你亲戚呢,是你爸爸或者哥哥呢……
还有别的问题:假如胖子是爱因斯坦呢,假如胖子是个将军呢,假如胖子是你公司的老板呢……
利害判断和情感选择之外还有法律评判:胖子的家属把你告上了法庭——你现在面临的问题是,你是否能决定胖子的生死——不管你为了什么。
这个“电车难题”太迷人了,以至于几十年来,网络上和线下都有了专门的电车难题讨论组,全世界的伦理学者和爱好者都加入进来,许多伦理法律和宗教讲堂,会把这个问题拿出来当成辩论话题。以这个“母题”为基础,大家还想象出了很多类似的情景,都被称为“电车难题”。比如这里有一个:
医院里急救中心送来五个受伤的人,如果他们立即得到换器官的机会,他们都能活下来。现在医院里边就有一个各种器官都好的人,但是他得了绝症,在将来不久会死去。作为主治医生,你是否可以现在就决定,用他的器官来拯救那五个人?
医生能够决定那个得了绝症的人什么时候该死吗?即便他的确快要死了,即便这样做可以救活五个人。
全世界的“电车难题”爱好者都参与进来,检察官、律师、法官、被告和原告、学者、牧师、学生、普通百姓……社会方方面面的人,从他们自己的角度对此进行评判:看起来好像很简单的选择,实际上包含了种种疑问,到最后,你发现这的确是难题——因为我们要面对人类种种伦理认知、道德判断,功利选择和良知拷问。
最后,“难题”终究还是难题,因为只要我们还需要伦理选择,这难题始终存在,与其说它是个难题,不如说它是我们人类伦理的各种选择和进化、拷问和提升。
据说谷歌造出了智能驾驶汽车,然后上路做实验,做了很多实验,智能驾驶汽车从未出过事故。但有一次例外:
在某个十字街口,发生了撞车事件。事故的责任人不是驾驶智能汽车的机器人,而是这辆智能汽车后边的一个人类司机——他摇头晃脑听音乐走神了,和这辆智能驾驶汽车追尾了。
这很有意思:人类总是比机器更容易犯错。
但是人类有些“对与错”的问题,机器是永远都想不到的,比如说,现在有一辆智能驾驶汽车,它在事故发生的瞬间需要选择:要么撞上一个男人,要么撞上一对牵着手的妈妈和孩子。机器的“算法”是判断和选择,人类司机也得判断和选择——通常人类司机不需要“算法”,他可能头脑充血,神经高速运转,不知道自己会撞上那个男人还是那对母子;但机器却很清晰,它会在一瞬间用“保险赔付多与少”“牺牲一个人还是两个人”“牺牲年老的还是年轻的”……无数种“算法”之后,决定这次事故中各人的生死。
“算法”何等冷酷啊!
而人类的伦理却是带有温度的:人类也许会犯无数次错,但人类却很难做到像机器这样的冷酷“算法”。
这就好比“电车难题”:你真的觉得你把胖子推下天桥,会很理直气壮吗?
(丁小村)