为什么自动车完全不可以犯错误
有人跟我讲,我对Google的自动车要求太苛刻了。人无完人,所以Google的产品也不需要是完美的,只要“够好用”就有市场。世界上有那么多糟糕的司机,酒后驾车的,开车时发短信的,打瞌睡的,判断失误的…… 导致了那么多的车祸,可比Google的自动车差多了。所以自动车不需要完美,只要99.9%的情况下可以正确工作,能大幅度减少车祸率,就是人类的福气了。
首先,现在的情况是,Google自动车现在只能在非常局限的情况下出来:白天,天气好,交通简单,而且就算是这样理想的条件下,一年之中仍然会发生270多起需要“人工干预”的事件,所以自动车的“驾驶技术”最后能不能超过最低级别的人类驾驶员,其实还很值得怀疑。其次,就算我们抛开这个问题不谈,假设自动车能够超过绝大部分人类驾驶员,能在99.9%的情况下判断正确,那么它也是不可行的。其实自动车必须能在100%的情况下做出正确的判断,不能犯任何错误,才有可能被人接受。这是为什么呢?
这其实是因为伦理和法律的原则。法律上的责任,并不是从宏观角度出发的。也就是说,法律不会因为自动车在99.9%的情况下判断正确,就免除那0.1%的情况下,Google对车祸的责任。法律的原则很简单,谁犯错误导致了车祸,谁就得负责,不管它是人还是机器都一样。是的,自动车也许不需要完美就可以用,但如果它犯错误引起了事故,责任就必须完全由Google,而不是车主来承担。因为如果车主是驾驶员,他开车引起车祸,那么车主就得负责。现在车主不是驾驶员,Google的软件才是驾驶员,所以如果自动车引起车祸,Google就得负完全的责任。
如果你还没有明白,我们来设想一个实例好了。假设Google自动车在99.9%的情况下,判断都是正确的,可就那么0.1%的情况下,它会判断失误而导致车祸。现在你就是这些不幸的人其中之一,你乘坐的Google自动车由于软件判断失误,导致车祸,让你双腿截肢,终生残疾。你把Google告上法庭。Google对法官讲,因为我们的自动车在99.9%的情况下都是可靠的,大幅度降低了社会的总体车祸率,对人类做出了巨大贡献。这个人很不幸,遇上了这0.1%判断失误的情况,所以Google对此不负责任。你觉得这可以接受吗? ;)
0.1%的出错概率,落到一个人的头上,就等于100%的不幸。如果你本来是一个安全的驾驶员,那就更加不幸,因为如果是你自己开车,其实完全不会犯那样的错误。在这种情况下,就算自动车使得社会的总体车祸率急剧降低,对你来说其实毫无意义,因为残废的人是你。这就是为什么从伦理上讲,对机器和人,我们必须有两种不同的标准。自动车的判断力,并不是超越了大部分的驾驶员就可以的,它必须超过所有人!有些人开车时会犯的那些错误,自动车却完全不可以犯。因为坐了这辆犯错的自动车,导致身体残疾的人,他可以说:“如果是我自己开车,根本就不可能犯这样的错误。诚然,其它人在这种情况下可能会犯错,但我不会!所以Google的自动车对此负有严重的责任。”
明白了吗?只是能从宏观上减少车祸是不够的。自动车的驾驶技术,必须超越世界上最安全的驾驶员,它完全不可以犯错误。现在世界上虽然有许多的车祸,可是因为人是驾驶员,所以责任分摊在很多当事人的头上,谁犯错误谁负责。可是如果Google的自动车进入市场,代替了大部分的驾驶员,以后自动车引起的车祸的责任,全都会落到Google的头上。所以这样的生意,是非常困难而不切实际的。