一直以来,有许多争论自动驾驶的正确率指标的说法,其中一类说法在于争论人们对于自动驾驶过于苛刻。 即,只要自动驾驶的事故率低于人即可。乍一听,似乎有些道理,然而这里忽略了一个问题,即自动化产品的正确率与人工的正确率造成的影响是不一样大的。
手写逻辑也好,AI算法也好,有一个特性就是大量可重复。 这对于软件行业是一个很大的优势,这也是互联网企业比较容易规模化的一个原因,即同一种模式的复制成本很低。 另一方面,如果一个模式有问题,那么其影响面也是很广的。 回到自动驾驶的例子,当一个自动驾驶的算法对于某一个场景不work发生事故时,意味着所有使用同一算法的车辆在这个场景都有同样的风险,或可近似为独立同分布。 然而人类的事故率,很大程度上并不是互相关联的,一个人在一个特定的场景出错,并不代表其它人也会犯类似的问题。
因此,自动化的设备的缺陷会由于大量可复制的特性,风险等级不可以直接与独立个体的出错率比较。 如果需要比较的话,应该是在相同的数量群体下,对比整体的出错概率,这样或许会更有意义一些。