当专家们担心由人工智能驱动的聊天机器人会产生事实错误和宣传时,有点讽刺的是,错误信息正开始损害微软的声誉AI-powered必应.
社交媒体,尤其是推特和Reddit,已经看到了大量的截图,显示了基于chatgpt的必应偶尔会为用户生成的奇怪回复。但根据微软的说法,至少有一些截图似乎是假的。
该公司首席通讯官弗兰克·肖(Frank Shaw)周三在Twitter上指出了这个问题。他说:“如果你想知道这些在Twitter上流传的‘必应聊天’对话是否真实,那么我们只能说,我们看到的是经过编辑/ ps的截图,这可能从未发生过。写了(在新窗口打开).
肖随后引用了Reddit上的一个帖子帖子(在新窗口打开)该公司声称,人工智能驱动的必应在误解了用户的查询后,试图将用户列入“FBI观察名单”。据称,为了这样做,必应在聊天期间开始搜索“儿童色情”。
推特(在新窗口打开)
虽然Bing确实可以发布不准确还有一些情感上奇怪的反应在肖说,网上流传的一些截图超出了这款人工智能聊天机器人的合理范围,该机器人还严格禁止搜索儿童色情内容。
肖在接受PCMag采访时表示:“我们确实看到了一些假消息,这也是我发推文的原因。”“我们正在努力确保人们尽早意识到这种潜力。你可以运行屏幕截图中引用的查询,并很快了解它们是否可能。”
微软的警告突显出,由于社交媒体的病毒式传播特性,如今虚假信息很容易感染任何话题。这些被篡改的截图也可能会让人们对新必应产生更多的不信任,因为包括特斯拉首席执行官埃隆·马斯克在内的批评者已经对必应产生了不信任爆破因为其所谓的偏见和传播宣传的潜力。
作为对虚假聊天的回应,肖鼓励用户在社交媒体上分享据称能显示人工智能聊天机器人反常行为的截图之前,先尝试复制必应的类似回复。
也就是说,考虑到网上流传的截图量,很难测试哪些必应互动是真的,哪些是假的。Reddit的论坛(在新窗口打开)目前,“必应”网站上充斥着大量的截图,其中很多都显示了这个聊天机器人奇怪或有bug的行为。但为了防止必应做出奇怪的回应,微软暂时采取了限制该程序可以进行的聊天次数。