PCMag编辑选择和审查产品独立.如果您通过附属链接购买,我们可以赚取佣金,这有助于支持我们的测试

革命还是毁灭?马斯克、盖茨和其他5位技术专家最害怕人工智能的地方

埃隆·马斯克(Elon Musk)和比尔·盖茨(Bill Gates)等知名人士将聊天聊天聊天技术称为人类的潜在风险,但(意外的是!)当它有助于盈利时,他们并没有那么害怕。

(图片来源:盖蒂图片社/弗拉维奥·科埃略/贾斯汀·沙利文/费尔法克斯传媒/ullstein bild/Karwai Tang/Brian Arch)

ChatGPT母公司OpenAI的首席执行官Sam Altman上周承认,他“有点害怕”人工智能从根本上改变社会的潜力。阿尔特曼说:“我们在这里必须小心告诉美国广播公司(在新窗口打开),理由是需要监管和公众参与。

这是一个熟悉的曲调。知名程序员、研究人员和技术高管已经敲响了警钟人工智能几十年了。然而,这项技术已经进入了我们数字生活的几乎每个角落,从搜索引擎到自动驾驶汽车,再到Netflix推荐。

以下是7位有影响力的人物,他们警告我们要警惕人工智能,在某些情况下,他们对人工智能改变我们生活的潜力充满热情。


1.约瑟夫·韦岑鲍姆(1923-2008)

约瑟夫·韦岑鲍姆的黑白肖像。
约瑟夫·韦岑鲍姆(图片来源:ullstein bild / Contributor / Getty Images)

1964年,约瑟夫·韦岑鲍姆(Joseph Weizenbaum)在麻省理工学院(MIT)制造了第一批成功的聊天机器人之一,今年他将迎来100岁生日。它被称为伊莱莎(Eliza),作为一个令人震惊的人形对话者而在校园里为人所知,尤其是一个名为博士(Doctor)的程序版本。

他在1976年的著作中写道:“我很惊讶,与博士交谈的人们如此迅速、如此深入地投入到计算机的情感中,他们如此明确地将计算机拟人化。(在新窗口打开)计算机能力与人类理性:从判断到计算。下面是一位女士和医生之间的对话,医生是一位治疗师:

  • 人类:男人都是一样的。

  • 系统:以什么方式?

  • 他们总是用这样那样的事情来烦我们。

  • 你能想出一个具体的例子吗?

  • 是我男朋友让我来的。

  • 你男朋友让你来的。

  • 他说我很多时候都很沮丧。

  • 听说你很沮丧,我很难过。

韦岑鲍姆对“美国致力于让计算机理解人类语言的多个项目”提出了警告。他认为,这将导致对对话的广泛监控,能够挑选出潜在的相关讨论,并将其呈现给政府特工。

此外,考虑到创建大规模语音处理系统所需的资金,只有政府机构或大公司可以承担。他敦促教师和计算机科学专业的学生考虑项目是否“在道德上令人反感”是否符合他们的最大利益去研究它们。

“现代人的行为不仅会影响作为其栖息地的整个星球,而且还会决定整个人类物种的未来,”他写道。“人,尤其是科学家和工程师,有超越他当前处境的责任。”


2.斯蒂芬·霍金(1942-2018)

斯蒂芬·霍金在台上。
2016年史蒂芬·霍金。(来源:布莱恩·贝德/斯金格/盖蒂图片社)

英国出生的超级天才斯蒂芬·霍金与人工智能有着独特的亲密关系,因为人工智能为他因渐冻症而失去的说话声音提供了动力。与霍金使用的计算机语音ChatGPT类似机器学习将其英语数据库与霍金的历史演讲模式结合起来。有了这些信息,它可以预测他接下来要说的话,他可以用眼睛和挤压脸颊肌肉来扫描和选择。

然而,尽管霍金依赖人工智能,但他也对它提出了警告。“我们已经拥有的原始形式的人工智能已被证明非常有用,但我认为全面人工智能的发展可能意味着人类的终结,”他在2014年的一次演讲中说面试(在新窗口打开)我是BBC记者。“它将自己起飞,并以不断加快的速度重新设计自己。人类受限于缓慢的生物进化,无法与之竞争,而且会被取代。”

他后来在2015年的Ask Me Anything (AMA)中对此进行了扩展Reddit的线程(在新窗口打开).有人问霍金,他是否同意我们对人工智能的恐惧电影就像《终结者》是错位的,因为代码除了试图解决人类设计它要做的问题之外,没有其他动机。

作为回应,霍金表示,人工智能的问题将在未来出现,届时一个系统可以创造并解决它自己的问题。霍金说:“人工智能的真正风险不是恶意,而是能力。”“一个超级智能的人工智能将非常擅长完成它的目标,如果这些目标与我们的目标不一致,我们就有麻烦了。请鼓励你的学生不仅思考如何创造人工智能,还要思考如何确保它的有益使用。”


3.比尔盖茨

比尔·盖茨在体育场戴着帽子。
2013年的比尔·盖茨(图片来源:威尔·默里/贡献者/盖蒂图片社)

微软将全力投入人工智能领域100亿美元投资在ChatGPT创建者OpenAI中,以及增高增加到必应搜索引擎和Edge浏览器。它的早已离职不过,微软联合创始人比尔·盖茨对这项技术持保留态度,不过他也承认了一些好处。

在2015年的Reddit AMA中,盖茨说“我属于担心超级智能的阵营。在这一点上,我同意埃隆·马斯克和其他人的看法,我不明白为什么有些人不关心。”

最近,盖茨的观点变得更加乐观。在他新出版的7-page信(在新窗口打开),他热切地写到人工智能将成为个人助理、改善医疗保健和减少不平等(尽管他后来承认,如果没有适当的监管,人工智能更有可能帮助富人而不是穷人)。

他写道:“人工智能的发展与微处理器、个人电脑、互联网和移动电话的诞生一样重要。”“它将改变人们工作、学习、旅行、获得医疗保健以及彼此交流的方式。整个行业都将围绕它重新定位。企业将通过如何使用它而脱颖而出。”

谈到风险,盖茨并不担心我们在最流行的人工智能模型(如ChatGPT)中看到的不准确答案谷歌吟游诗人.霍金斯指出,真正的风险在于超级智能人工智能“建立自己的目标”,这可能与人类的利益相冲突。

“人工智能有可能会失去控制。机器是否会认为人类是一种威胁,得出它的利益与我们不同的结论,或者干脆不再关心我们?”他说,就目前而言,“过去几个月的突破都没有让我们离强人工智能更近一步”,但这还只是早期阶段。


4.梅格。惠特曼

梅格。惠特曼
梅格·惠特曼在2019年。(图片来源:阿尔贝托·e·罗德里格斯/斯金格/盖蒂图片社)

eBay和惠普(Hewlett-Packard)前首席执行官梅格·惠特曼(Meg Whitman)在2017年达沃斯论坛上讨论了人工智能取代人类工作的担忧惊人的速度

惠特曼说:“工作岗位将会流失,工作岗位将会进化,这场革命将是永恒的,它将是不分阶级的,它将影响到每个人。报道(在新窗口打开)路透。“想想我们目前拥有的技术,再加上机器人、更多的自动化和人工智能。”

在那次活动中,多位科技领袖讨论了人工智能取代我们所知道的工作的潜力。微软首席执行官萨蒂亚·纳德拉说:“我认为我们现在面临的是一个我们可能不得不在一生中寻找替代职业的时代。”五年后的今天,他在人工智能领域做出了业内最大的努力之一介绍它进入必应搜索结果。

惠特曼认为,在向更多人工智能技术过渡的过程中,大多数工作岗位将会流失,并表示美国可能没有准备好应对这一巨大变化。她说:“对于(人工智能)不会成为雇主的地方,我们该怎么办?”根据(在新窗口打开)《华尔街日报》.在她看来,“应该由商界和学术界来管理这种转变”,而目前的美国教育体系“与需求脱节”。

尽管存在这些担忧,但惠特曼在惠普四年任期内的主要工作重点之一是开发更强大的人工智能产品,以与亚马逊、谷歌和IBM等公司竞争。2017年她辞职前一个月,惠普宣布(在新窗口打开)这是该公司首款人工智能数据存储产品,该公司至今仍专注于人工智能。


5.Jaron Lanier

杰伦·拉尼尔在台上。
杰伦·拉尼尔在2013年。(来源:切尔西·劳伦/斯特林格/盖蒂图片社)

被认为是虚拟现实领域之父的杰伦·拉尼尔(Jaron Lanier)从雅达利1983年,他创立了VPL Research,这是第一家销售VR眼镜的公司。现在,他公开反对现代互联网文化,尤其是人类互动的游戏化。

他在2018年的一次会议上说:“我们不能有这样一个社会,如果两个人想要交流,唯一的方式就是由希望操纵他们的第三方提供资金。TED演讲(在新窗口打开).“我不相信我们的物种能生存下去,除非我们解决这个问题。”

拉尼尔在他的TED演讲中说,他推动了一种围绕技术的文化,“它是如此美丽,如此有意义,如此深刻,如此无尽的创造力,如此充满无限的潜力,它让我们远离大规模自杀。”

他承认,谈论大规模死亡是“一个相当可怕的说法”,但“我仍然相信,用创造力来替代死亡是非常真实和真实的,也许是最真实的事情。”


6.Elon Musk

特斯拉机器人
“特斯拉机器人”是马斯克为公司工厂工作人员创造的人工智能机器人。(来源:特斯拉)

如今,埃隆·马斯克是人工智能的忠实粉丝。去年,他特斯拉解决基于人工智能的自动驾驶的能力“真的是特斯拉值很多钱还是基本上一文不值的区别”。

不过,这与2014年的情况大不相同比喻AI变成了“召唤恶魔”。

“我认为没有人意识到人工智能的发展有多快……这是对人类有害的东西,”他在麻省理工学院的一次露面中说。“我越来越倾向于认为,应该有一些监管监督,也许是在国家和国际层面,只是为了确保我们不会做一些非常愚蠢的事情。”

2017年,马斯克与包括斯蒂芬·霍金在内的其他100位人工智能领导者一起,警告联合国人工智能的危险,特别是在武器和战争方面。他们在一份声明中写道:“随着公司开发人工智能和机器人技术,这些技术可能被重新用于开发自主武器,我们感到特别有责任发出这一警报。

“致命的自主武器有可能成为战争中的第三次革命,”信中还说。“一旦发展起来,它们将使武装冲突以前所未有的规模进行,以人类无法理解的速度进行。我们时间不多了。潘多拉魔盒一旦打开,就很难再关上。”

马斯克目前还没有改变主意,但他确实公布了一项“特斯拉机器人在该公司去年举行的第二届人工智能日(AI Day)发布会上。现在还处于早期阶段,但当它准备好投入使用时,机器人将在工厂车间(希望不是战场)提供协助。


7.Timnit Gebru

Timnit Gebru
蒂姆尼特·格布鲁2018年在旧金山。(来源:金伯利·怀特/斯金格/盖蒂图片社)

2020年在谷歌工作时,Timnit Gebru与人合著了一篇题为《关于随机鹦鹉的危险:语言模型会太大吗?》这篇论文强调了人工智能在大量文本数据(如ChatGPT)训练下的缺点,尽管它比ChatGPT早写了两年,并且专注于当时谷歌搜索中使用的语言模型。

根据总结(在新窗口打开)来自麻省理工学院的论文认为,这些类型的模型从网络中摄取了看似无限且不断扩大的数据集,使得种族主义、性别歧视等存在虐待语言不可避免,几乎不可能根除。庞大的数据集可能也会让人很难发现在社会正义运动中发挥作用的语言的细微差别,这些运动的数字足迹可能很小。

同样,它可能无法理解某些社区的文化规范或语言中的细微差别。研究人员引用了2017年的一个例子误译(在新窗口打开)一名巴勒斯坦男子的帖子用阿拉伯语说“早上好”,用希伯来语说“攻击他们”,这导致他被捕。

Gebru预测了ChatGPT最近几个月出现的另一个明显问题:大型语言模型擅长模仿真实的人类语言。愚弄人们和传播错误信息很容易——从伪造大学论文到制造关于COVID-19或政治候选人的错误信息。

尽管Gebru与其他六人(包括谷歌的多名研究人员)共同撰写了这篇论文,但她出现在中心(在新窗口打开)一场导致她离开公司的争议(她声称自己是被迫离开的)。据报道,谷歌人工智能研究负责人杰夫·迪恩表示,这篇论文“不符合标准”,不能以谷歌的名义正式发表,尽管他在一份声明中写道内部备忘录(在新窗口打开)它“调查了大型语言模型的合理担忧,实际上谷歌的许多团队都在积极研究这些问题。”


你怎么看?

这份名单上的人既对人工智能非常熟悉,又对它深感怀疑。显然,利弊是无限的,并会在时间上显现出来。随着我们对人工智能能做什么有了更多的了解,问题是:我们想用它去哪里,为什么?请在评论中告诉我们。

What's New Now<\/strong> to get our top stories delivered to your inbox every morning.","first_published_at":"2021-09-30T21:30:40.000000Z","published_at":"2022-08-31T18:35:24.000000Z","last_published_at":"2022-08-31T18:35:20.000000Z","created_at":null,"updated_at":"2022-08-31T18:35:24.000000Z"})" x-show="showEmailSignUp()" class="rounded bg-gray-lightest text-center md:px-32 md:py-8 p-4 mt-8 container-xs">

获取我们最好的故事!

报名参加最新消息让我们的头条新闻每天早上发送到您的收件箱。

本通讯可能包含广告、交易或附属链接。订阅通讯即表示您同意我们的服务使用条款而且隐私政策.你可以随时退订时事通讯。beplay体育苹果下载


感谢您的报名!

您的订阅已确认。留意你的收件箱!

注册其他时事通讯beplay体育苹果下载

你会喜欢的PCMag故事

关于Emily Dreibelbis

记者

在加入PCMag之前,我在西海岸的大型科技公司工作了6年。从那时起,我近距离地了解了软件工程团队是如何工作的,好产品是如何推出的,以及业务战略是如何随着时间变化的。在我吃饱了之后,我改变了课程,进入芝加哥西北大学攻读新闻学硕士课程。我现在是一名专注于电动汽车的记者。

阅读艾米丽的完整传记

请阅读Emily Dreibelbis的最新报道

Baidu
map