PCMag编辑选择和审查产品独立.如果您通过附属链接购买,我们可能获得佣金,这有助于支持我们的测试。

深度造假的普京和人工智能的未来成为Emtech的中心舞台

Deepfake技术得到了很多关注,但我更感兴趣的是AI研究的未来方向。

人工智能成为了今年的焦点会议提出(在一个新窗口中打开)提出的,麻省理工学院技术评论.会议以一个deepfake的演示开始,主要讨论了这些技术和错误信息的影响,大规模部署人工智能,组织应该如何使用人工智能,是否应该更严格地监管面部识别,以及最有趣的是,人工智能先驱Yoshua Bengio关于创造更广泛的人工智能的想法。

它开始于技术评论总编辑吉迪恩·利希菲尔德谈论深度造假的潜在影响,这很快变成了他在屏幕上假装俄罗斯总统弗拉基米尔·普京的演示。这是一个相当不错的演示——屏幕上的“普京”看起来相当逼真,尽管发际线和口音不太令人信服。无论如何,这引发了一系列关于这种深度造假是否可能影响选举的问题。

Hao Li- Pinscreen EmTech19

这个演示是由南加州大学的李浩和Pinscreen的首席执行官创建的,Pinscreen是一家使用人工智能驱动算法创建逼真的人物化身的公司。他讲述了2014年他是如何工作的愤怒的7将最近去世的演员保罗·沃克(Paul Walker)的脸以数字方式插入到沃克的弟弟拍摄的面部表演之上。他说,当时的技术还没有达到要求,但现在事情容易多了。以前需要一个团队数月才能完成的工作,现在一个人就能完成。

李说,到目前为止,深度造假还没有造成太多问题,“因为质量不存在。”但他表示,该领域的发展比他想象的要快,并提到中国的换脸应用“造”(Zao)最终会发展到可能引发麻烦的地步。

他说,研究人员需要采取一种假设深度造假是完美的方法,所以他们需要尝试不同的方法来检测它们,比如运动特征。但他指出,错误信息一直是一个问题,包括战时篡改照片等。“你不需要深度造假来编造故事,”他说。

(Facebook前首席信息官亚历克斯·斯塔莫斯(Alex Stamos)在会议上的另一场对话中表示,深度造假的最大问题不在于政治,而在于报复色情等个人欺凌——他说,政客们有团队检查视频,并指出它们是假的,但17岁的女孩没有这样的求助渠道。)

李谈到了一些应用程序,如“早”是如何非法使用内容的,以及将照片上传到“早”或FaceApp等应用程序可能存在的隐私问题,称用户不理解他们给了应用程序背后的公司对照片做任何事情的权利。

他指出,人们现在可以用你的头像创造新的内容,在你看到它之前,你做不了什么。之后,你可以起诉,但在很多情况下,损害已经造成了。

他明确表示,他的公司Pinscreen并不是在制造深度假货,而是专注于创造数字化身或虚拟人物,作为你未来互动的一种界面形式。他说,例如,在电子商务领域,“下一代时装目录”中,你可能可以看到你自己,而不是模特,从而预览你穿衣服的样子。此外,在AR或VR技术中,你可以使用三维数字化身进行面对面对话。Pinscreen正试图创建一个平台,让人们可以创建这样的应用程序。

面向人类级别的人工智能:科学和社会挑战

Yoshua Bengio EmTech19

蒙特利尔大学和蒙特利尔学习算法研究所(MILA)的人工智能先驱Yoshua Bengio在大会上的演讲中说:“重要的是要认识到,我们在很多方面都距离人类水平的人工智能还很远。”他说,我们在人工智能方面取得了惊人的进步,应该为此庆祝,但话虽如此,要达到人类水平的人工智能,我们还有很多工作要做。

本吉奥谈到了许多改进人工智能的不同方法,超越了近年来取得巨大进展的基本深度学习系统。

他指出,目前的人工智能需要从人类那里获取高层次的概念,比如给大量数据贴上标签。他说,研究人员正在研究计算机如何更好地理解环境,并提出新的方法来表示和概念化知识。

其中一个领域是“学习学习”或“元学习”,在这里模型学习如何更好地泛化。这已经被用于为神经网络设置超参数,但本吉奥谈到了使用同样的技术,使模型基于新数据进行泛化。

他指出,该行业存在的一个问题是,如果你在一个国家训练数据,在另一个国家,分布可能不一样,导致结果不那么准确。他说,人类能够更好地处理这些差异,理解诸如因果关系之类的事情。

他讨论的另一个领域是强化学习,它已被应用于游戏(如围棋)等应用。他谈到了在机器人和对话系统等领域使用强化学习技术,以帮助深度学习系统获得更好的视角。应用可能包括药物发现、材料发现和对话系统,任何您希望“学习者”探索和实验以获取知识的地方。他说,到目前为止,我们已经迈出了“一小步”,但还有很多工作要做。

另一种方法是将当今的深度学习方法与经典的人工智能相结合。他指出,这种基于逻辑和符号的系统,是他多年前在研究生院学到的。最大的限制是,它需要人类专家提供知识来解决问题。但有很多事情我们知道却无法解释,比如感知。这就是深度学习取得最大成功的地方。

他说,传统人工智能专注于推理,而深度学习专注于我们可能称之为直觉的东西。将这两个概念结合在一起可能会在这些想法的基础上创造出不同的解决方案,为了接近人类级别的AI,我们需要缩小这一差距。

在回答各种问题时,本吉奥谈到了“合乎道德的人工智能”的重要性,称研究人员有责任考虑如何利用他们的工作。他说:“我们被要求参与有关如何部署人工智能的民主讨论。”他说,人工智能在未来会更加强大,我们需要在增强力量的同时增加智慧。

“人工智能不是魔法,”他在回答有关该领域最大误解的问题时表示。他指出,有时组织没有意识到我们所拥有的人工智能的局限性,并指出在真正使用人工智能之前,组织必须经历一系列的决策和变革。在人工智能方面做得最好的组织必须愿意在一个长期过程中投资,以建立他们所需要的东西。

本吉奥说,他对神经网络很感兴趣,他希望通过一些简单的原理来解释我们的智能,并让我们制造出智能机器。他说,在社会方面,如果我们共同做出正确的决定,我们就能真正带来一个更美好的世界,让地球上的每个人都能受益。

他说,虽然他不认为不可能设计出理解情感或意识的机器,但在考虑设计这样的机器之前,我们还有很长的路要走,才能更好地理解人类的情感或意识。

人工智能的扩展和部署

NNP-I EmTech19的Gadi Singer

在赞助商会议上,英特尔推理产品集团总经理Gadi Singer表示,他预计在未来三年内,深度学习将大规模部署,渗透到所有行业。

辛格谈到了人工智能现在如何拥有四大“超级力量”。模式识别是最常见的,它被用于许多领域,包括图像识别、语音识别和欺诈检测。(后来,他说他对在医疗保健方面的应用特别感兴趣,比如功能磁共振成像(fmri)、x光和CT扫描。)它可以是一个通用的近似器,因为它可以学习输入和输出之间的相关性,并能够对结果进行预测,这使得它可以用于模拟欧洲核子研究中心的粒子运动或飞行路线,使用比传统模拟更少的功率和更少的时间,即使它不太准确。它擅长序列映射,用于清理DNA序列或语言翻译。它适用于基于相似度的生成——创建某事物的下一个例子,如创建声音、照片或视频。

他展示了英特尔的新推理芯片Nervana神经网络推理处理器(NNP-I),称该芯片可以达到50个TOPs,是为高效率和规模化而设计的。

他说,要成功部署人工智能,一个组织需要具备三个最重要的东西。首先,是一个高度投入的高管团队,他们意识到在试验和部署人工智能方面将会出现一些失败。其次是高质量的数据,因为深度学习需要大量的数据,大量的工作是连接、清理和分析这些数据。最后,他说这需要“非常聪明的数据科学家”——在你的团队或其他方面(比如使用服务),了解技术并能将其集成到你的业务线的人

此外,他说,你需要理解这个领域发生的“独特的创新步伐”。他说,一个新概念变成一个新产品通常需要数年时间,但在人工智能领域,这个过程要快得多。他指出,谷歌的一个名为BERT的新模型彻底改变了自然语言处理,如果你在6个月内没有使用这些概念,你就落后了。

大型组织中的AI采用和治理

Steven Hill和Cliff Justice- KPMG EmTech19

毕马威(KPMG)对30家《财富》500强企业的研究显示,大型企业采用人工智能的方式存在很大差异。在另一场赞助商会议上,毕马威(KPMG)的史蒂文•希尔(Steven Hill)和克利夫•贾斯特斯(Cliff Justice)谈到了这项研究。希尔指出,成功部署人工智能“与技术无关,而是与人有关。”

希尔说,领导者和追随者之间的区别是领导者的投入增加了10倍,他们基本上是在押注未来10年将发生的竞争动态。

Justice表示,企业从人工智能中获得了三大类价值。beplay3体育app手机版首先是使用人工智能进行洞察、预测和预测。这主要集中在减少风险和揭示新的机会上。其次是用于增强的人工智能,比如增强技能集(使用更多资源做出更好的决定),以及用于客户服务的虚拟助理和增强现实。最后,还有用于自动化的人工智能,包括财务、人力资源或工厂车间的自动化过程,通常使用自然语言处理和计算机视觉等技术。这些都有自己的投资回报,他指出,“实现人工智能并不便宜。

Justice表示,重要的是要明白,人工智能在很大程度上是一种概率技术,而不是企业习惯的确定性技术。因此,他说,对组织来说,了解输入、数据的完整性、人工智能是如何训练的以及谁为其提供背景是很重要的,这样他们才会对结果有信心。

希尔也认为,毕马威的客户对大规模部署人工智能感到紧张,称最大的原因是对该技术“缺乏信心”。他说,企业担心基于人工智能的系统可能会违反一些规则,或陷入偏见,而且它的工作速度如此之快,以至于在生产中,人们将无法检查它。他认为,我们将需要新的工具和技术,为领导人提供前进所需的信心,但他表示,机器检查机器的想法仍处于萌芽状态。

至于建议,Justice说组织需要重新思考他们的生态系统,并指出大型平台参与者都提供先进的人工智能,你不需要完全依靠自己。希尔也认为,组织不应该认为他们必须独自完成,而应该考虑与合作伙伴合作;但他表示,他们需要小心拖延症,并指出改变你的组织以正确使用人工智能需要时间和投资。

圆桌会议:调节面部识别技术的政治

Daragh Murray-埃塞克斯大学和Mutale Nkonde-哈佛大学EmTech19

一个关于“监管面部识别技术的政治”的圆桌会议几乎变成了对加强监管面部识别技术的呼吁。

埃塞克斯大学的Daragh Murray表示,总体而言,人工智能在保护人权方面非常有用,应该鼓励投资。但他担心,这代表着企业和政府为每个人创建档案的能力发生了一步一步的变化,他担心取消匿名“会阻止我们成为真实的自己”,他说,匿名让人们可以进行试验,因为没有人会跟踪记录。他还担心这可能会产生“寒蝉效应”,尤其是在社会上的少数群体中。

他谈到英国有很多摄像头,但在人脸识别方面仍远远落后于美国。他说,他担心这些系统的使用方式缺乏透明度,并表示他预计会根据该国的《人权法案》(Human Rights Act)进行监管。

哈佛大学的Mutale Nkonde最担心的是这种“寒战效应”,他担心这项技术可能会阻碍那些站出来挑战政府的领导人的发展。但她最担心的是对少数族裔社区的伤害,她指出,不同社区对隐私的看法是不同的,她提到纽约的“拦截搜身”政策主要阻止了黑人和棕色人种,而他们绝大多数是无辜的。

她担心房东会在门锁上使用人脸识别,或者像Ring门铃这样使用类似功能的东西,她还担心这些数据可能会与执法部门共享,从而对少数族裔社区造成影响。

恩孔德呼吁暂停使用面部识别技术,并表示她认为这项技术最终会被禁止(不过在后来的一次谈话中,她说她预计在防止恐怖主义方面会有例外)。

中国科学院的易冷通过电话参与了这次会议,他谈到了面部识别在追踪失踪儿童方面的潜力,或者用支付代替密码购买东西,同时表示他不喜欢在教室里使用面部识别,因为它改变了教师和学生的互动方式。他说,83%的中国人支持政府正确使用面部识别,这与美国的调查没有太大区别,但他指出,我们如何定义隐私会有文化差异。

默里说,这个“系统是坏的”,他说,一个人真的很难做出一个真正明智的决定,可能每天几百次,而且很多人都没有意识到他们已经同意了什么。相反,他说,我们需要获得“社会层面”的同意。

Nkonde对此表示同意,并担心政策制定者在制定规则时,会让经济方面的担忧压倒社会方面的担忧。她说,社会需要理解什么是被同意的。

这是一场有趣的讨论,但如果让正在开发或部署面部识别系统的人也加入讨论小组,将会受益匪浅。

What's New Now<\/strong> to get our top stories delivered to your inbox every morning.","first_published_at":"2021-09-30T21:30:40.000000Z","published_at":"2022-08-31T18:35:24.000000Z","last_published_at":"2022-08-31T18:35:20.000000Z","created_at":null,"updated_at":"2022-08-31T18:35:24.000000Z"})" x-show="showEmailSignUp()" class="rounded bg-gray-lightest text-center md:px-32 md:py-8 p-4 mt-8 container-xs">

获取我们最好的故事!

报名参加现在的新让我们的头条新闻每天早上送到您的收件箱。

本通讯可能包含广告、交易或附属链接。订阅通讯表明您同意我们的使用条款而且隐私政策.您可以随时取消订阅通讯。beplay体育苹果下载


感谢您的报名!

您的订阅已被确认。留意你的收件箱!

注册其他通讯beplay体育苹果下载

你会喜欢的PCMag故事

关于迈克尔·米勒

前总编辑

Michael J. Miller是私人投资公司Ziff Brothers Investments的首席信息官。从1991年到2005年,米勒担任个人电脑杂志负责世界上最大的计算机出版物的编辑指导、质量和呈现。本专栏不提供任何投资建议。所有责任都被免除了。米勒单独为一家私人投资公司工作,该公司可能在任何时候投资其产品被讨论的公司,证券交易不会被披露。

读迈克尔·J。完整的生物

阅读迈克尔·j·米勒的最新报道

Baidu
map