几乎每个以写作或编辑为生的人都能立刻知道哪里出了问题ChatGPT这是一款免费的人工智能工具,它使用自然语言输入生成文本,回答你给出的提示。不,并不是说它会夺走我们的工作。让ChatGPT或任何其他人工智能写文章的问题是,它将是错误的或做得不好,它将导致诉讼。
以Red Ventures旗下的两家网站CNET和Bankrate的最新事件为例,这两家网站将人工智能生成的内容作为信息文章发布,但并不透明。一旦读者注意到一个小小的免责声明,并发现一直是机器人在写作,互联网上就会出现反弹。几天后,据The Verge报道(在新窗口打开)在此之前,CNET的领导层告诉员工,该出版物将暂停使用机器人来撰写报道,这意味着一旦喧嚣平息,它将恢复使用机器人。
不知怎的,情况变得更糟了。乔恩·克里斯蒂安(Jon Christian)一直在Futurism网站上出色地报道这一问题,他指出,一些CNET的文章不仅包含事实错误(在新窗口打开)但也剽窃(在新窗口打开).
对我来说,CNET崩溃最痛苦的部分是,任何作家都能预见到它的到来。The Verge的报道称,许多员工从未被告知使用人工智能撰写内容。如果这能让其他出版商和企业认真对待人工智能书写文本的严重缺陷,也许这场混乱会带来一些好处,尽管考虑到CNET领导层的回应,我担心他们不会。
不是所有的事情都应该自动化
在任何出版物的门后都有写作的人和试图赚钱的人。一组着眼于像ChatGPT这样的工具,并看到了潜在的价值:我们如何使用这个工具来提高效率,获得更高的利润,使一些常规的事情自动化?另一组人知道,要写出原创的、准确的、基于可靠来源的内容有多难。对一个群体来说似乎是自动化的,但对另一个群体来说显然不是。
大多数商业人士都知道,机器可以取代作家,仅此而已。但有些人会说,机器可以取代作家一些写作的种类。这种心态贬低了作家,在理解作家的工作方面是目光短浅的。这也是对读者的不尊重。在CNET和Bankrate的例子中,选择自动生成关于个人理财的文章显示了对那些需要帮助了解他们的钱的人缺乏关心,如果不是不尊重的话。
人工智能可以从其他来源收集它想要的一切,但它无法对以前没有得出过的趋势或历史得出智能结论。这是作家工作的很大一部分。
这不仅仅是写文章。一个与我们在PCMag上发表的作品有关的例子是产品定价。如果我们自动提取产品的具体细节,为读者提供相关信息,会怎样?问问手工做这项工作的人,我们会告诉你,即使是像产品价格这样看似简单的事情,也从来没有这么简单。例如,当一家公司说一项服务每月花费9美元时,它可能会掩盖一个事实,即你实际上必须一次性花费108美元,因为报价是基于你每月的平均价格将如果是按月收费就付钱,其实不是。这是产品审查员竭尽全力想要弄清楚的细节。
或者考虑A/B价格测试。出售软件即服务的公司因向不同的客户提供不同的价格而臭名昭著,有时是随机的,以收集人们愿意支付多少钱的信息。一个有经验的产品评论员或服务新闻作家知道如何发现和核实这些问题,并适当地报道它们。他们还关心读者是否拥有最准确的信息。人工智能则不然。
对于人工智能来说,更表面的阻碍因素是,它无法复制写作中其他非常人性化的元素,比如报告、亲自测试,或者具有广度和深度的经验。人工智能可以从其他来源收集它想要的一切,但它无法对以前没有得出过的趋势或历史得出智能结论。这是我们作家工作的很大一部分。有些人甚至会说,作家全身心地投入到他们的作品中,这是人工智能所缺乏的,尽管我个人不会这么认为。我写过不少枯燥乏味的文章,只要内容是真实的(AI现在在这方面相当失败),并能给读者一些他们需要或想要的东西,它们就有自己的位置。
即将到来的诉讼
诉讼是另一个真正令人担忧的问题。当你让ChatGPT在互联网上公开搜索信息时,它不会提供它使用的来源列表。正如Futurism发现的那样,人工智能机器人知道对一大块内容进行改写或重新措辞,而不是逐字逐句地重复,但它们做得和七年级学生差不多。那些让被剽窃的段落在没有注明出处的情况下传播出去的出版商,正在让自己面临法律诉讼。
我想教育工作者,尤其是那些熟悉TurnItIn的人,在大多数时候都能很容易地发现这些措辞笨拙的文本。TurnItIn成立于1998年(PCMag综述了它大约10年前),是一项将学生的所谓原创作品与网上发布的内容进行比较的服务而且所有其他论文提交到TurnItIn。这样,它就可以识别已发表的作品以及其他学生的作品中的抄袭,无论他们在世界上的哪个地方。TurnItIn可以分析逐字逐句的抄袭,也可以分析经过轻微修改但肯定不是原创的文本。它还可以做更多的事情,比如在学生论文过于依赖引用时给他们建议。
提交抄袭论文的学生可能无法完成作业,或者不得不面对道德委员会。发布抄袭文本的媒体将会被起诉。
教育工作者会注意到那些经过轻微改写但从别处偷来的文本风格,因为他们的耳朵已经适应了这种风格。我对我从ChatGPT读到的大多数文本也有同样的感觉。即使你要求机器人以特定人物或媒体的风格写作,听起来也很生硬机器人,偶数。作为彭博(在新窗口打开)OpenAI公司,也就是开发ChatGPT的公司,说他们的系统“不具备产生类似人类语言的能力”,尽管之前的文章滔滔雄辩地说它“模仿人类的散文”。当然,“演讲”和“散文”是不一样的,但重点是语法和风格不是人类的,这表明。
提交抄袭论文的学生可能无法完成作业,或者不得不面对道德委员会。发布抄袭文本的媒体将会被起诉。也许更重要的是,这是不专业的,它损害了工作人员的利益,破坏了出版物的声誉。
一个明显的坏主意
这并不是说人工智能不能在某个地方以某种方式对写作有益。TurnItIn当然有它的问题,但它很擅长帮助教育者发现抄袭,并指导无意中抄袭的学生更好地学习。语法这是另一个像样的例子吗这并不能让一个熟练的作家变得更好,但它对于捕捉简单的错误和帮助某些群体非常有益,比如语言不流利的作者。人工智能写作机器人是工具。如果我们发现它们是好的工具,它们是有用的对。写信息,面向公众的内容不是。
对于局外人来说,我可以理解作者是如何警告ChatGPT和其他危险的人工智能写作助手可能会表现出对工作的不安全感或危言耸听。但作家们如此反对它,并不是因为我们害怕,而是因为对我们来说,为什么使用人工智能编写出版内容是一个很明显的坏主意。