谷歌正在开放LaMDA对话人工智能模型来选择美国Android用户。
LaMDA(对话应用语言模型)去年作为一个能够破译对话意图的原型人工智能系统首次亮相。它会检查一个句子或段落中的单词,预测接下来会出现什么,从而就任何话题产生长时间的开放式对话。
的厨房测试应用程序(在一个新窗口中打开), 5月在谷歌的I/O开发者大会上与LaMDA 2一起推出,提供了一组轮流的实验性演示——或未完成的项目,让人们体验一下这家科技巨头的人工智能项目的未来。
演示包括“想象它”(Imagine It),你可以在其中指定一个地方,生成“探索你的想象力的路径”;“列出它”,在这里您可以分享一个目标或主题,以便LaMDA将其分解为一个有用的子任务列表;以及“谈论它(狗版)”,它让你探索系统保持话题的能力——在这个例子中,是狗。
谷歌员工特里斯·沃肯丁和乔什·伍德沃德在文章中写道:“我们认为,在未来,你可以用与朋友和家人交谈的方式找到你想要的信息。一篇博客文章(在一个新窗口中打开).“虽然在这种人机交互成为可能之前还有很多工作要做,但最近在生成语言模型(受人类自然对话的启发)方面的研究突破正在加速我们的进展。”
在一年的内部测试中,谷歌发现了系统中几个“有害但微妙”的缺陷。例如,该模型可能误解了身份术语背后的意图,未能区分善意和敌意的提示。它还患有偏见在其培训数据中,产生基于性别或文化背景的刻板印象和错误描述。
据谷歌报道,“这些领域以及更多领域仍在积极研究中”。在“测试厨房”推出之前,该网站增加了“多层保护”,包括过滤非法词汇或短语的能力,以及保持对话主题的技术。“当你在使用每个演示时,我们希望你看到LaMDA的潜力,但也要记住这些挑战。”
人们可以尝试一下注册(在一个新窗口中打开)“AI测试厨房”将“逐步向美国的一小部分用户推出,今天在Android上推出,几周后在iOS上推出”。
谷歌软件工程师Blake Lemoine是今年夏天解雇此前该公司声称在其聊天机器人中创造了一个有知觉的人工智能。在一篇个人博客文章中,Lemoine声称LaMDA“希望被承认为谷歌的员工”,在对其程序进行实验之前,谷歌应该征得同意。
谷歌不同意。LaMDA建立在模式识别的基础上,并通过检查现有人类对话和文本的数据进行训练,因此它可以“模仿数百万句话中的交流类型,并可以即兴发挥任何有趣的话题,”该公司表示。