这条新闻肯定会让作家无处不在,似乎ChatGPT和其他人工智能工具的书写能力和人类一样好——至少达到了普通美国成年人无法区分的水平。
结果来自于一项由ToolTester(在新窗口中打开)的网站最佳网站建设者,主机,以及电子商务工具。它进行了两项调查——第一次是在2023年2月底,对1920名美国成年人进行了调查,比较了由人工智能生成、人类生成或人工智能编辑的75段文本。使用的人工智能是由GPT-3.5驱动的ChatGPT,但之后GPT-4的发射, ToolTester在三月底用同样的问题和主题调查了另外1394人,但是使用了新使用相同的ai生成副本提示.
超过一半的受访者认为ChatGPT-3.5的副本是人类写的。使用GPT-4后,这个数字上升到63.5%。结果表明,GPT-4(用于ChatGPT的付费版本)比用旧的GPT-3.5创建的副本至少有16.5%的可信度。
根据写作类型的不同,人工智能副本可能更难被发现。例如,人工智能生成的与健康相关的文章最擅长欺骗人们,让他们认为是人类写的。该表显示了相信chatgpt生成的文本来自人工智能、人类或由人类编辑的人工智能的人的百分比。
人们越熟悉使用人工智能工具,就越不容易被愚弄。即便如此,他们仍有48%的时间被误导。对于那些说自己从未使用过生成式人工智能工具在美国,识别人工智能文字的平均能力下降到40.8%。
随着年龄增长而来的智慧也会有所帮助。65岁及以上的人最有可能正确识别人工智能生成的内容,而18至24岁的人更有可能相信人工智能写作是人类生成的。
最终,这归结为对PCMag.com等内容出版商的信任。(例如,《卫报》目前正在处理ChatGPT中的假文章归属(在新窗口中打开))。我们的生死取决于读者对我们内容的信任——大多数人不希望出版商滥用这一点。在调查受访者中,71.3%的人不会信任使用人工智能内容而不充分披露的出版商,80.5%的人认为人工智能披露应该成为常态。
有关此信息的更多见解,请阅读完整的报告在ToolTester(在新窗口中打开).