展会信息港展会大全

对话Facebook AI负责人:AI达到人类智慧之前要先破解成本极限
来源:互联网   发布日期:2019-12-16 16:29:18   浏览:9022次  

导读:Facebook AI 副总裁杰罗姆佩森蒂(Jerome Pesenti)对人工智能的进步感到鼓舞,但也看到了当前深度学习方法的局限性。知名媒体作者 Will Knight 与他就 deepfak……...

Facebook AI 副总裁杰罗姆佩森蒂(Jerome Pesenti)对人工智能的进步感到鼓舞,但也看到了当前深度学习方法的局限性。知名媒体作者 Will Knight 与他就 deepfake 技术、AI 能否让人类更「智慧」、AI 技术的「天花板」危机、AI 商业化,以及 AI 出口管制等话题展开深度对话。

作为 Facebook 人工智能副总裁,杰罗姆佩森蒂(Jerome Pesenti),在全球最具影响力和争议的公司之一领导人工智能的发展。他的工作需要监督数百名科学家和工程师,而这数百人的工作塑造了公司的方向,影响更广阔世界。

佩森蒂于 2018 年 1 月加入 Facebook,继承了该领域大牌人物之一亚恩莱昆(Yann Lecun)创建的一个研究实验室。在此之前,他曾在 IBM 的沃森人工智能平台和仁爱人工智能公司(Benevolent AI)工作,该公司正在将 AI 技术应用于医学。

人工智能对 Facebook 至关重要。那些擒获了我们注意力或即将被我们关注到的算法,有助于使该平台及其姊妹产品 Instagram 和 WhatsApp 更具粘性和更加上瘾。尽管有一些著名的 AI 案例失败,比如个人助理「M」,Facebook 仍在继续使用人工智能构建新的功能和产品,从 Instagram 过滤器到增强现实应用。

马克 扎克伯格(Mark Zuckerberg)承诺,将通过有效地利用人工智能帮助解决公司的一些最大问题,如控制仇恨言论、假新闻传播和遏制网络欺凌(迄今为止,这一努力收效甚微)。最近,Facebook 被迫考虑如何阻止通过 deepfake videos 形式传播的 AI 驱动骗局。这种视频不仅可以令人毫不怀疑地传播错误信息,还可能引发新型骚扰。

最近,佩森蒂(以下简称为 JP)在其纽约办事处附近会见了《连线》的资深作家威尔奈特(WillKnight,以下简称 WK)。二人由「deepfake」打开话头,展开了一次 AI 领域全面而深入的对话。以下对话已经过编辑。

1 用 AI 技术击穿「虚假」

WK:人工智能被认为是一种解决虚假新闻和网络滥用的方法,但这可能夸大了它的威力。目前你们实际取得了什么进展?

JP:自动调节。在 Facebook 的规模下,哪怕是与人、计算机协同工作,这依旧是一个极具挑战性的问题。但是我们已经取得了很大的进步。

早期,该领域在视觉理解场景和图像方面取得了进展。在过去的几年里,我们已经能够应用它来识别裸体,识别暴力,以及理解图像和视频中发生的事。

最近在语言领域有了很大的进步,使我们能够通过人们使用的语言更精确地理解互动。当人们试图欺凌、发表仇恨言论,哪怕只是一个玩笑,我们都可以理解得清清楚楚。尽管还没有解决这个问题,但已经取得了明显的进展。

WK: 那么关于 deepfake 呢?

JP:对待这个问题,我们的态度非常严肃。实际上,我们到处寻找并制作了新的 deepfake 视频,来便于人们测试 deepfake 的新检测技术。这是一个我们正未雨绸缪,准备主动出击的重要挑战。目前,在这个平台上它的重要性还没有被凸显,但我们知道它可以非常强大。我们正在努力领先其他对手,并已经与业界和社会达成接触。

2 不要指望 AI 让人更「智慧」

WK:让我们更广义地来谈谈 AI。一些公司,例如 DeepMind 和 OpenAI,声称他们的目标是开发「通用人工智能」,Facebook 有正在这么做吗?

JP:作为一个实验室,我们的目标是匹配人类的智力。我们离那一步还非常遥远,但我们认为这是一个伟大的目标。但我认为实验室里的很多人,包括 Yann,都认为「AGI」这个概念并不是很有趣,也没有更多意义。

一方面,你会发现,有人认为 AGI 是人类智慧。但我认为这个看法有些虚伪,因为如果你真正思考过人类的智力,就会发现它不是很普遍。另一些人将异常想法投射在 AGI 上:一旦你拥有 AGI,你将拥有一种可以使自己变得更好的智力,并不断改进。但现实中没有一个真正的模型为此存在。人类不能藉此让自己变得更聪明。

我觉得人们不能单纯凭借一个想法就去理所当然地追求一个结果。

WK: Facebook 的人工智能实验室是由莱昆(LeCun)建立的,莱昆是深度学习的先驱之一,他最近因在该领域的工作而获得了图灵奖。你怎么看待那些批评该领域注重深度学习的人,他们认为这不会为我们带来真正的智慧?

JP:深度学习和当前的人工智能,如果你足够诚实,会发现有很多局限。AI 与人类智力的实际距离非常遥远,有一些批评是合乎逻辑的:它可以传播人类的偏见,它难以解释,它不具有常识,它更多的是停留在模式匹配的层面,而不是强大的语义理解。但我们在解决其中一些问题上取得了进展,而且这一领域的进展仍然相当快。你可以把深度学习用来学习数学,理解蛋白质,你可以用它做很多事情。

3 AI 技术也有「天花板」危机

WK:一些人工智能专家也谈到了「重现危机」,或者说是重新创建突破性研究的困难。你认为这是个大问题吗?

JP:这正是 Facebook 人工智能非常热衷的事情。当人们做一些不可复制的事情时,就会产生很多挑战。如果你不能复制它,那就是一大投资损失。

我们相信「重现性」给这个领域带来了很多价值。它不仅可以帮助人们验证结果,还可以让更多的人了解正在发生的事情,并以此为基础进行构建。人工智能的美妙之处在于,一切最终由计算机系统运行。因此,作为科学的一个分支,它首要满足的就是可复制。我们相信人工智能的未来将是一个几乎在默认情况下可以复制的东西。我们试图开源我们在人工智能中产生的大部分代码,这样其他人就可以在上面构建。

WK: OpenAI 最近指出,高级人工智能所需的计算能力每 3 个半月就翻一番。你担心这个吗?

JP:这是个很好的问题。当你扩展深度学习时,它往往表现得更好,能够以更好的方式解决更广泛的任务。所以,放大规模存在优势。但显然,这种进步速度是不可持续的。如果你观察过顶尖实验,会发现他们每年的成本都会以 10 倍的速度增。现在,一个实验的成本可能是 7 位数,但不会达到 9 位数或 10 位数,不然没人能负担得起。

这意味着在某个时候,我们最终会达到成本极限。在很多方面已经出现了这样的情景。并不是每个领域都达到了可伸缩的极限,但在大多数地方,我们已经到了一个需要从优化、成本效益等方面考虑问题的地步,而且我们还需要看看如何从现有的计算中获得最大的收益。这才是我们要出发的世界。

4 想让AI商业化,就不能让研究员呆坐一旁

WK: 从 IBM 和沃森的人工智能商业化中,你学到了什么?你又试图在 Facebook 上复制和避免什么?

JP: 在沃森(Watson)是一个非常有趣的时期,我认为 IBM 宣称这是一个商业市场,实际上还有应用程序。我觉得那真的很了不起。但有点太夸张了,我不认为这有很好地服务于 IBM。

当你在一个像 Facebook 这样的地方时,组织内的 AI 使用率是非常惊人的。目前,Facebook 内部使用人工智能的开发者数量每年都增长超过一倍。所以,我们需要解释它是有用的,但不要夸大它。声称它能做到其实际不能做的事,对我们没有好处。我不需要夸大说法来强调我团队的有力。

WK: Facebook 有时难以将 AI 研究转化为商业上的成功,例如「M」(详见首次提到的开篇)。你会如何更有效地将研究与工程联系起来?

JP:当你开始谈论技术转让时,这意味着你已经输掉了这场战斗。你不能仅仅是选择了一些研究,就要求其他人尝试将其投入生产。你不能只是简单把它扔过篱笆就认为任务完成了。这确实是一个集体的挑战,最好的方法是让做研究的人和更接近产品的人一起结合工作。确保一系列项目随着时间的推移而成熟,并将人们集中在一起,而不是让科学家们只站在一边,让他们轻松地把研究抛过来而什么都不管。

WK: 那么,近期 Facebook 会推出哪些值得我们期待的新 AI 产品呢?

JP:如今,AI 在 Facebook 中的用途有两点:

1)让用户使用平台更安全;

2)确保我们向用户展示的内容有价值。

但我们正在做的,最令人兴奋的事情是,创造只有人工智能才有可能带来的新体验。增强现实和虚拟现实都只能与人工智能共存。我们最近看到,你可以用手与虚拟现实互动,这需要对耳机周围的东西有一个非常微妙的了解。只需要使用一个相机,就能解析整个场景,这样你就可以用你的手作为控制器。

我相信人们潜藏着巨大的创造力。你可以在*抖音*这样的竞品中看到这一点。不用成为专家、视频编辑或艺术家,许多人通过与媒体自然互动就可以完成视频和内容的创作。

WK: deepfake 背后的技术会达到这样的创造性吗?

JP:当然。我们需要了解两个方面。一方面,它有很多潜力可以让人们更有创造力并赋予他们这种能力,但正如我们在过去几年中所了解到的,我们需要负责任地使用这项技术,我们需要在意外后果发生之前意识到这一点。

5 AI 是否应该被出口管制?

WK:你对 AI 出口管制怎么看?这项技术能被限制吗?会对该领域造成什么样的伤害?

JP:我个人的意见是,这似乎没有实际的操作性。除此之外,它还可能对研究进展产生负面影响,迫使研究工作的可重复性降低。我相信开放和协作对于推动人工智能的发展是很重要的,限制基础研究成果的出版或开源可能会减缓该领域的进展。

也就是说,无论是否实施了此类控制,作为负责任的研究人员,我们应该继续考虑潜在误用的风险,以及我们如何帮助减轻这些风险,同时仍然确保我们推进人工智能的工作尽可能开放和可复制

赞助本站

人工智能实验室
AiLab云推荐
推荐内容
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港