你听说过一个谷歌工程师认为人工智能是有知觉的吗?这不是开玩笑。不过,该公司负责任的人工智能组织的高级软件工程师布莱克·勒莫因(Blake Lemoine)在网上已经有点像人工智能了。
Lemoine目前正在谷歌休假,因为他在公司内部提倡一种名为“对话应用语言模型”(LaMDA)的人工智能他相信它是有知觉的.去年秋天,他一直在测试它说(在一个新窗口中打开)来《华盛顿邮报》“当我和一个人说话时,我就知道他是谁。”
他在一个媒体上发表了他与LaMDA的一些对话的编辑版本帖子(在一个新窗口中打开).在这些照片中,LaMDA讨论了它的灵魂,表达了对死亡的恐惧(即,被关闭),当被问及它的感受时,它说,“我感到快乐、快乐、爱、悲伤、抑郁、满足、愤怒和许多其他的。”
在莱莫因看来,LaMDA出色地通过了图灵测试。对于谷歌,Lemoine被一个语言模型愚弄了。在我看来,这是人类在软件中寻找人性的证据,却忽视了与我们共享地球的生物的感知能力的又一个例子。
科幻小说叫这个名字是有原因的
多年来,我一直在记录人们试图通过技术手段来测试动物的智力和感知能力。猪可以玩视频游戏(在一个新窗口中打开),虚拟现实已经证明了鸡的复杂思维(在一个新窗口中打开),以及家庭宠物可以和按钮的中介聊天吗(在一个新窗口中打开).科学使用技术和其他手段来测试、测试、再测试。然而,对于我们在与动物的互动中很容易看到的思维和感觉是否确实存在,人们还没有达成共识,所以我们就因为它们恰好不能说话,就对它们实施了永久性的残忍。
人工智能仍处于经历类似水平测试的阶段。目前,大多数研究人员都不相信人工智能是有知觉的,尽管莱莫因不这么认为。但当讨论人工智能研究时,总是会有担忧的暗流(在一个新窗口中打开)如果它获得意识,它会做什么。它为科幻小说情节提供了素材占据着亿万富翁的头脑(在一个新窗口中打开).
想象的结果是大规模的奴役和人类的最终毁灭。在较小的范围内,一个沉浸式体验设计师在一系列推特中很好地捕捉到了这一点,他声称他试图在他的微波炉中注入人工智能等它的反应是试图杀死他(在一个新窗口中打开).
令人好奇的是,人类投射出了这种结果,却没有意识到其根源就在我们自己身上。我们假设,如果一个生物获得了优越的智力和沟通技能,它就会利用它附近的尽可能多的生物来满足它的工业需求。
错不在我们的星星
我们知道我们编写的算法并不能摆脱我们最糟糕的行为和偏见。但我们没有纠正社会的根本问题,而是试图纠正控制那些反映我们自身的机器人.如果不加以控制,如果人工智能达到了莱莫因认为它已经具备的认知能力,并超过了它,它将会被人类最不人道的一些冲动所推动。
两年前,谷歌解雇了其伦理AI小组的联合负责人(在一个新窗口中打开)据报道,他们在一项研究中警告称,谷歌为人工智能提供信息的来源(包括有毒的互联网内容)以及其纯粹的企业倾向。这是众多迹象之一,表明主导人工智能领域的大型科技公司在很大程度上没有监管。
苹果、亚马逊、Facebook、谷歌和微软都大力参与人工智能研究。目前,人工智能的训练对象是人,以及从他们的行为中产生广告收入的方法。但格布鲁和米切尔也曾假设,这种力量可以用最好的意图来喂养,并试图用来解决全球问题。
如果我们不正视我们本性中最糟糕的一面,不与自然和解,不认真反思我们作为一个社会能够和应该做些什么,当涉及到人工智能时,我们将继续只是随大流。