停止ChatGPTOpenAI有一个新工具,可以告诉你一段文字更有可能来自人工智能程序还是人类。
OpenAI引入了“分类器”工具(在新窗口打开)周二,他们将帮助打击人工智能生成的文本,这些文本被误认为来自人类。随着学生利用ChatGPT完成家庭作业,这一问题在教育领域尤为突出。
在一个博客(在新窗口打开)OpenAI还指出,人工智能生成的文本在用于生成自动文本时可能会构成威胁错误信息运动。
分类器工具非常简单:提交一些长度至少1000个字符的文本,OpenAI会告诉你它来自人工智能程序或人类的可能性。该工具是通过训练一个计算机模型来识别“同一主题的人类书写文本和人工智能书写文本”而创建的。
然而,旧金山实验室承认这个分类器还远远不够完美。OpenAI写道:“在我们对英语文本‘挑战集’的评估中,我们的分类器正确地将26%的人工智能书写的文本(真阳性)识别为‘可能是人工智能书写的’,而在9%的时间里错误地将人类书写的文本标记为人工智能书写(假阳性)。”
在检查短片段或几段文本时,分类器的可靠性也会下降。因此,该工具只适用于长度超过1000个字符的提交。此外,OpenAI指出,“有时人类编写的文本会被我们的分类器错误地标记为人工智能编写的文本。”
该实验室表示:“此外,学生们可以很快学会如何通过修改生成内容中的某些单词或从句来逃避检测。”
因此,OpenAI表示,在确定一段文本是否由人工智能生成时,该工具“不应被用作主要决策工具”。但是尽管有这些限制,OpenAI还是决定发布这个工具,因为它致力于“缓解”,以防止学生利用ChatGPT进行作弊。
“我们将这个分类器公开提供反馈(在新窗口打开)像这样不完美的工具是否有用,”OpenAI补充道。“我们在检测人工智能生成文本方面的工作将继续进行,我们希望在未来分享改进的方法。”
ChatGPT于去年11月推出,它非常先进,人工智能程序可以在几秒钟内写出散文、诗歌,并回答各种主题的测试问题。虽然回答的质量可能不稳定,但研究人员发现ChatGPT足够聪明(勉强)通过工商管理硕士考试甚至修复了许多错误在计算机代码中。
ChatGPT的出现不可避免地引发了质疑,即同样的项目是否会破坏教育和白领工作。一些学校和老师已经决定在他们的网络上屏蔽人工智能程序担忧ChatGPT使得家庭作业和考试作弊变得非常容易。与此同时,一些第三方也发布了自己的数据免费的(在新窗口打开)工具(在新窗口打开)帮助教育工作者找出人工智能生成的文本。
OpenAI表示,他们正试图通过与美国教师接触,了解他们的经验来解决作弊问题。该实验室还发表了一份文档(在新窗口打开)并就教育工作者如何在课堂上安全引入和监督ChatGPT的使用提供了建议。
但OpenAI也指出,现在谈论ChatGPT这样的项目将如何影响教育和社会还为时过早。报告称:“到目前为止,我们已经看到生产率提高改变了工作岗位、取代了工作岗位和创造了就业机会,但近期和长期的净影响都不清楚。”