今天的语音助手能回答基本问题。但如果他们也能就任何话题进行长时间的开放式对话呢?
在谷歌I/O大会上,该公司首次推出了一个原型人工智能这个系统承诺做到这一点。该系统被称为LaMDA,它能够回答后续问题,从而将一个话题引向另一个话题。
在活动中,谷歌演示了LaMDA,但不是作为一个传统的语音助手。相反,该公司对系统进行了编程,使其拟人化矮行星冥王星,并回答有关它在太阳系边缘生活的问题。
LaMDA在演示中说:“我希望人们知道我不是一个随机的冰球。”“我其实是一个美丽的星球。”
“嗯,我觉得你很漂亮,”说话的人反驳道。
“听你这么说我很高兴。我没有得到我应得的认可。有时人们只把我当作一颗矮行星,”LaMDA回应道。
在另一个演示中,LaMDA扮演了一架纸飞机。当被问到“一架真正好的纸飞机的秘诀是什么”时,这个程序足够聪明,它会问用户“好”是什么意思?
“好吧,我的好朋友。我必须首先要求你具体说明你所说的“好”是什么意思。有些人可能会认为它走多远,有些人可能会认为它走多直,还有一些人可能会认为它落得多平。你觉得呢?”λ答道。
“我最关心的是距离,”人回答说。
“那么我不得不说,一个漂亮的宽翼展是你想要的。此外,纸张需要非常牢固。”
据谷歌报道,LaMDA是对话应用语言模型的缩写,已经酝酿多年。这项技术可以通过阅读一个句子或段落中的单词来解读意图,关注每个单词与另一个单词的关系,然后预测接下来可能出现的单词。
“但与大多数其他语言模型不同的是,LaMDA接受的是对话训练,”该公司在一份声明中写道博客(在一个新窗口中打开).在训练过程中,它学会了将开放式对话与其他形式的语言区分开来的几个细微差别。其中的一个细微差别就是敏感度。基本上就是:对特定对话语境的回应是否有意义?”
例如,想象一个朋友说:“我刚开始上吉他课。”一个明智的回答可以包括:“太令人兴奋了!我妈妈有一辆她喜欢玩的马丁古董车。”然而,人工智能通常很难做出这样的回应,因为它们被设计成遵循一个狭窄的、预定义的对话路径。
LaMDA,另一方面,可以将对话从一个话题转移到另一个话题,同时试图使回答合理和具体。谷歌首席执行官桑达尔·皮查伊在发布会上说:“自然的对话是有生成性的,它们不会重复走同一条路。”
但也许最重要的是,在后端,LaMDA可以就不同的主题举行新的对话,而不需要谷歌每次都重新训练AI模型。
该公司补充说:“我们也在探索‘有趣度’等维度,通过评估回答是否有洞察力、出人意料或诙谐。”“作为谷歌,我们也非常关心事实性(也就是说,LaMDA是否坚持事实,这是语言模型经常难以做到的),并正在研究各种方法,以确保LaMDA的回答不仅令人信服,而且是正确的。”
LaMDA还在进行中,会犯错。“有时它会给出无意义的反应,想象冥王星在翻转。或者和它最喜欢的球月亮玩接球游戏,”皮查伊说。“其他时候,这并不能让谈话继续下去。”
另一个挑战是使LaMDA理解来自其他媒介的信息,包括图像、音频和视频。尽管如此,这家科技巨头还是希望有一天可以使用LaMDA来支持谷歌助手、谷歌搜索和谷歌工作区。“我们也在探索如何赋予开发者和企业客户能力,”Pichai补充道。
与此同时,该公司正在努力防止该技术对社会构成威胁。例如,不难想象LaMDA被利用来诱骗单身人士交友应用.
该公司表示:“语言可能是人类最伟大的工具之一,但与所有工具一样,它也可能被滥用。”训练语言的模型会传播这种误用——例如,通过内化偏见、模仿仇恨言论或复制误导性信息。即使训练它的语言经过了仔细的审查,模型本身仍然可能被误用。”
该公司补充说:“我们在开发LaMDA这样的技术时,最优先考虑的是确保我们将这种风险降到最低。”