6

为什么自动车完全不可以犯错误

 3 years ago
source link: http://www.yinwang.org/blog-cn/2016/03/19/self-driving-car-liability
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
neoserver,ios ssh client

为什么自动车完全不可以犯错误

有人跟我讲,我对Google的自动车要求太苛刻了。人无完人,所以Google的产品也不需要是完美的,只要“够好用”就有市场。世界上有那么多糟糕的司机,酒后驾车的,开车时发短信的,打瞌睡的,判断失误的…… 导致了那么多的车祸,可比Google的自动车差多了。所以自动车不需要完美,只要99.9%的情况下可以正确工作,能大幅度减少车祸率,就是人类的福气了。

首先,现在的情况是,Google自动车现在只能在非常局限的情况下出来:白天,天气好,交通简单,而且就算是这样理想的条件下,一年之中仍然会发生270多起需要“人工干预”的事件,所以自动车的“驾驶技术”最后能不能超过最低级别的人类驾驶员,其实还很值得怀疑。其次,就算我们抛开这个问题不谈,假设自动车能够超过绝大部分人类驾驶员,能在99.9%的情况下判断正确,那么它也是不可行的。其实自动车必须能在100%的情况下做出正确的判断,不能犯任何错误,才有可能被人接受。这是为什么呢?

这其实是因为伦理和法律的原则。法律上的责任,并不是从宏观角度出发的。也就是说,法律不会因为自动车在99.9%的情况下判断正确,就免除那0.1%的情况下,Google对车祸的责任。法律的原则很简单,谁犯错误导致了车祸,谁就得负责,不管它是人还是机器都一样。是的,自动车也许不需要完美就可以用,但如果它犯错误引起了事故,责任就必须完全由Google,而不是车主来承担。因为如果车主是驾驶员,他开车引起车祸,那么车主就得负责。现在车主不是驾驶员,Google的软件才是驾驶员,所以如果自动车引起车祸,Google就得负完全的责任。

如果你还没有明白,我们来设想一个实例好了。假设Google自动车在99.9%的情况下,判断都是正确的,可就那么0.1%的情况下,它会判断失误而导致车祸。现在你就是这些不幸的人其中之一,你乘坐的Google自动车由于软件判断失误,导致车祸,让你双腿截肢,终生残疾。你把Google告上法庭。Google对法官讲,因为我们的自动车在99.9%的情况下都是可靠的,大幅度降低了社会的总体车祸率,对人类做出了巨大贡献。这个人很不幸,遇上了这0.1%判断失误的情况,所以Google对此不负责任。你觉得这可以接受吗? ;)

0.1%的出错概率,落到一个人的头上,就等于100%的不幸。如果你本来是一个安全的驾驶员,那就更加不幸,因为如果是你自己开车,其实完全不会犯那样的错误。在这种情况下,就算自动车使得社会的总体车祸率急剧降低,对你来说其实毫无意义,因为残废的人是你。这就是为什么从伦理上讲,对机器和人,我们必须有两种不同的标准。自动车的判断力,并不是超越了大部分的驾驶员就可以的,它必须超过所有人!有些人开车时会犯的那些错误,自动车却完全不可以犯。因为坐了这辆犯错的自动车,导致身体残疾的人,他可以说:“如果是我自己开车,根本就不可能犯这样的错误。诚然,其它人在这种情况下可能会犯错,但我不会!所以Google的自动车对此负有严重的责任。”

明白了吗?只是能从宏观上减少车祸是不够的。自动车的驾驶技术,必须超越世界上最安全的驾驶员,它完全不可以犯错误。现在世界上虽然有许多的车祸,可是因为人是驾驶员,所以责任分摊在很多当事人的头上,谁犯错误谁负责。可是如果Google的自动车进入市场,代替了大部分的驾驶员,以后自动车引起的车祸的责任,全都会落到Google的头上。所以这样的生意,是非常困难而不切实际的。


About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK