微软的新产品令媒体和公众啧啧称奇AI-powered必应.但事实证明,在微软上周的公开演示中,这项技术犯了几个错误。
这些错误包括关于Gap财务收益报告的编造信息,这被工程师兼作家德米特里·布里雷顿注意到,他发表了一篇文章帖子(在新窗口打开)复习错误。
在微软的演示(在新窗口打开)该公司要求基于chatgpt的必应(Bing)为Gap的第三季度收益报告提供关键信息。程序继续这样做,除了部分摘要完全关闭。
例如,基于人工智能的必应(Bing)显示,Gap的营业利润率为5.9%。然而,该公司的盈利报告(在新窗口打开)营业利润率为4.6%。
由人工智能驱动的必应还表示,Gap预计净销售额将增长两位数左右。但实际报告指出,“2022财年第四季度的净销售额可能同比下降个位数左右。”
在演示的早期部分,微软还使用新的必应查询“前三名畅销宠物吸尘器的优点和缺点是什么?”搜索引擎很快就会给出一个结果,列出了三种宠物吸尘器的优点和缺点。
然而,布里里顿指出,Bing在描述比塞尔宠物毛发擦手持式真空吸尘器时犯了一个错误。它将“16英尺长的短绳”列为缺陷。然而,这款真空吸尘器是一款无绳型号,设计成便于携带。除此之外,必应似乎为最受推荐的宠物吸尘器提供了答案,但不一定是最畅销的。
在演示的另一部分,Bing在列出墨西哥城夜生活推荐时犯了一个错误。搜索引擎显示,一家名为Cecconi's Bar的酒吧“有一个网站,你可以在那里预订并查看他们的菜单。”但搜索Cecconi 's Bar却找不到这样的网站。你必须调用(在新窗口打开)预订房间。
此外,微软还吹嘘Bing能够创建一个关于90年代音乐的测验。搜索引擎这样做了,为每个问题准确地列出了正确的音乐家。但尴尬的是,这10个问题的所有答案都是“答案A”,完全没有变化。
微软没有立即回复记者的置评请求。但是公司的常见问题解答(在新窗口打开)必应承认,这项技术并不总是准确的。该公司写道:“必应有时会歪曲它找到的信息,你可能会看到听起来很有说服力的回答,但实际上是不完整、不准确或不恰当的。”
事实上,微软自己的演示在大多数情况下确实展示了将复杂的主题合成为易于阅读的文章和列表的技术。但在某些情况下,技术可能会关闭,用户很难判断,除非他们仔细检查答案。也就是说,微软此前曾表示,它正在努力改进ChatGPT与Bing的集成。
不过,必应和其他人工智能聊天机器人在向公众推出时,其准确性无疑将面临更多审查。谷歌的ChatGPT竞争对手Bard,错误地在上周的公开演示中也出现了错误。