3月12日,麻省理工科技评论(在新窗口打开)这篇文章的开头是这样的:“2023年,自动驾驶汽车终于在我们的城市街道上行驶。这是第一次,其中一辆车撞死了一名行人,媒体对此进行了大量报道。可能会引发一场高调的诉讼,但应该适用哪些法律呢?”
预测的一切都是正确的,除了日期。就在这篇文章发表一周后,一辆无人驾驶的优步撞死一名行人在亚利桑那州坦佩市,同时以自动模式运行。
虽然事件仍在调查中,但随之而来的骚乱表明,我们离成功整合还有多远人工智能我们的关键任务和决定。
在许多情况下,问题不在于人工智能,而在于我们对它的期望和理解。根据《连线》杂志(在新窗口打开)在美国,去年仅在美国就有近4万人死于交通事故,其中6000人是行人。但很少(如果有的话)能像优步事件那样成为头条新闻。
优步事故引起如此大的骚动的原因之一是,我们通常对新技术抱有很高的期望,即使它们还在开发阶段。在纯数学驱动AI算法的错觉下,我们倾向于相信它们的决定,当它们犯错误时,我们会感到震惊。
就连驾驶自动驾驶汽车的安全驾驶员也放松了警惕。优步事件的视频显示司机心不在焉他在坠机发生前几秒钟往下看。
2016年,一辆特斯拉S型汽车在自动驾驶模式下驾驶时撞上一辆卡车,导致司机死亡。调查发现了司机可能在看哈利波特电影(在新窗口打开)在碰撞发生的时候。
对完美的期望很高,失望是强大的。事件发生后,批评人士很快就对优步的整个自动驾驶汽车项目提出了质疑;事后,该公司暂时暂停了自动驾驶汽车测试。
人工智能不是人类
事故发生后的批评中有一条是,人类司机本可以轻松避免这一事故。
“(行人)不是从灌木丛中跳出来的。她在多个车道上都取得了明显的进展,这应该在(优步的)系统的权限范围内。告诉美国有线电视新闻网(在新窗口打开).
她是对的。一个有经验的人类司机可能会发现她。但人工智能算法不是人类。
深度学习算法自动驾驶汽车(在新窗口打开)使用大量的例子来“学习”他们领域的规则。当他们花时间在路上时,他们会对收集到的信息进行分类,并学会处理不同的情况。但这并不意味着他们使用与人类司机相同的决策过程。这就是为什么它们在某些情况下可能比人类表现得更好,而在那些对人类来说微不足道的情况下却失败了。
一个完美的例子是图像分类算法,它通过分析数百万张带标签的照片来学习识别图像。多年来,图像分类已经变得超级高效优于人类(在新窗口打开)在很多情况下。不过,这并不意味着算法能像人类一样理解图像的上下文。
例如,研究(在新窗口打开)微软和斯坦福大学的专家发现,用白猫图像训练的深度学习算法高度相信白色狗的照片代表猫,这是一个人类孩子很容易避免的错误。还有一个臭名昭著的例子,谷歌的图像分类算法错误的分类深色皮肤的人就像大猩猩。
这些被称为“边缘情况”,人工智能算法还没有接受过处理这些情况的训练,通常是因为缺乏数据。优步事故仍在调查中,但一些人工智能专家表示,这可能是另一个边缘案例。
深度学习许多挑战(在新窗口打开)才能在危急情况下应用。但它的失败不应该阻止我们。我们必须调整我们的看法和期望,并接受每一项伟大的技术在发展过程中都会失败的现实。人工智能也不例外。