• 我的订阅
  • 科技

“AI将接管世界,但不会征服人类”,图灵奖得主杨立昆最新访谈来了

类别:科技 发布时间:2024-01-04 11:10:00 来源:书圈

【编者按】作为图灵奖得主和 Meta 首席 AI 科学家,杨立昆(Yann LeCun)是 AI 技术最有力的捍卫者之一。

当他的前合作者 Geoffrey Hinton和 Yoshua Bengio 宣称 AI 灭绝论时,LeCun 并没有参与。相反,他签署了一封公开信,呼吁拥抱开源 AI,并称 AI不应由少数几家企业控制。

那么,AI 到底是会给人类带来毁灭性灾难,还是会加速推动人类社会的发展?这也是自 ChatGPT 问世一年多以来,业内早已存在的两种对抗声音。

近日,LeCun 接受了美国数字媒体 WIRED 的访谈,就上述问题做出了回答。核心观点如下:

“AI将接管世界,但不会征服人类”,图灵奖得主杨立昆最新访谈来了

学术头条在不改变原文大意的情况下,做了精心的编译,内容如下:

不要对 Yann LeCun 讲一些末日论。作为现代 AI 的先驱和 Meta 首席 AI 科学家,LeCun 是这项技术最有力的捍卫者之一。他对同行们所描绘的错误信息甚至导致人类灭绝的乌托邦式场景嗤之以鼻。他经常在 X 上发推斥责那些制造恐惧的人们。当他的前合作者 Geoffrey Hinton 和 Yoshua Bengio 将他们的名字放在一份声明的首位,称 AI 是一种“社会级别的风险”时,LeCun 没有参与。相反,他签署了一封致美国总统 Joe Biden 的公开信,呼吁拥抱开源 AI,并称 AI 不应由少数几家企业控制。

LeCun 的观点很重要。他与 Hinton 和 Bengio 一起,帮助创建了对 AI 水平提升至关重要的深度学习方法,三人也因此获得了计算机领域的最高荣誉——图灵奖。2013 年,Meta(当时的 Facebook)聘请他担任了 FAIR 的创始主任。另外,他还是纽约大学教授。最近,他帮助说服首席执行官 Mark Zuckerberg 与世界分享 Meta 的一些 AI 技术。今年夏天,Meta 推出了一款名为 “Llama 2” 的开源大型语言模型(LLMs),与 OpenAI、微软和谷歌竞争。一些批评者警告称,这种开源策略可能会让不法分子通过修改代码绕过对 LLMs 输出中有害内容的防护措施。做为 AI 领域最杰出的人物之一,LeCun 认为人类可以解决这个问题。

今年秋天,我和 LeCun 在纽约 Meta Midtown 办公室的一间会议室里进行了交谈。我们谈到了开源、为什么他认为 AI 的危险性被夸大了,以及计算机是否能像 Charlie Parker 的萨克斯独奏那样打动人心。(LeCun 在巴黎郊外长大,经常出入纽约的爵士俱乐部)。12 月,当 LeCun 出席 NeurIPS 会议时,我们又进行了一次对话。考虑到篇幅和清晰度,我们对访谈内容进行了编辑。

Steven Levy:在最近的一次演讲中,你说“机器学习糟透了”。为什么像你这样的 AI 先驱会这么说?

Yann LeCun:机器学习很棒。但那种认为我们只需要扩大现有技术的规模,就能实现具有人类水平的 AI 的想法呢?要让机器像人类和动物一样高效学习,我们还缺少一些重要的东西,但我们还不知道那是什么。

我不想抨击这些系统,也不想说它们一无是处,我在整个职业生涯中,就一直专注于这些。但是,我们必须抑制某些人的兴奋,他们认为我们只需要扩大规模,就能很快获得人类智能。绝对不是这样的。

你认为你有责任揭露这些事情。

没错。AI 将为世界带来许多好处,但一些人正通过人们对这项技术的恐惧来滥用它。我们必须警惕,以免让人们望而却步。这也是我们在其他革新世界的技术上犯下的错误。就拿 15 世纪印刷术的发明来说,天主教会憎恨它,对吗?人们可以自己阅读《圣经》,而不用向牧师请教。几乎所有权力者都反对广泛使用印刷术,因为这会改变权力结构。他们是对的,这造成了长达 200 年的宗教冲突。但它也带来了启蒙运动。[注:历史学家可能会指出,教会实际上利用印刷术达到了自己的目的,但不管怎样,LeCun 是这样想的。]

为什么如此多的科技界知名人士都在敲响 AI 的警钟?

有些人在寻求关注,有些人没有看清当今的真实情况。他们没有意识到,AI 实际上可以减少仇恨言论和错误信息。在 Meta,我们利用 AI 在这方面取得了巨大的进步。五年前,在我们从平台上删除的所有仇恨言论中,大约有 20% 到 25% 是 AI 系统在任何人看到之前删除的。去年,这一比例达到了 95%。

你如何看待聊天机器人?它们是否强大到足以取代人类的工作?

他们太棒了,人们已经在这方面取得了巨大的进步。它们将在一定程度上实现创造力的民主化,它们可以写出非常流畅的文字,这些文字具有非常棒的风格,但它们也很无聊,因为它们想出的东西可能完全是假的。

Meta 似乎一心想要开发这些技术,并将其应用到产品中。

从长远来看,未来我们与数字世界的所有互动,以及在某种程度上,我们彼此之间的互动,都将以 AI 系统为媒介。我们必须尝试那些现在还没有强大到足以做到这一点,但即将实现这一点的东西,或者在日常生活中帮助人类创造东西,无论是文字还是实时翻译,诸如此类,也可能是在元宇宙中。

在 Meta,Mark 如何推进 AI 方面的工作?

Mark 非常投入。今年年初,我与他进行了一次讨论,并把我刚才告诉你的那些内容告诉了他,未来我们所有的互动都将以 AI 为媒介。ChatGPT 向我们展示了 AI 对新产品的作用,这比我们预想得要早。我们看到,公众对 AI 功能的痴迷程度远远超出了我们的想象。因此,Mark 决定创建一个专注于生成式 AI 的产品部门。

Meta 为什么决定以开源的方式与他人共享 Llama 代码?

当你拥有一个开放的平台,许多人都能为之做出贡献时,进步就会变得更快。最终开发出的系统会更安全,性能也会更好。想象一下,在未来,我们与数字世界的所有互动都将以 AI 系统为媒介。你不会希望 AI 系统被美国西海岸的少数公司所控制。也许美国人不在乎,也许美国政府不在乎。但我现在告诉你,在欧洲,他们不会喜欢的。他们会说:“好吧,这个能说正确的英语。但法语呢?德语呢?匈牙利语呢?荷兰语或其他语言呢?你是怎么训练它的?这如何反映我们的文化?”

这似乎是让初创企业使用你的产品并击败竞争对手的好办法。

我们不需要向任何人妥协,这就是世界发展的方向。AI 必须是开源的,因为当平台成为通信结构的重要组成部分时,我们需要一个共同的基础设施。

有一家公司不同意这种说法,那就是 OpenAI,而你似乎并不喜欢它。

刚开始时,他们设想创建一个非营利组织,从事 AI 研究,从而抗衡谷歌和 Meta 等主导行业研究的公司。我认为这是一个错误的想法,事实证明,我是对的。OpenAI 已经不再开放(open)。Meta 一直是开放的,现在也是。我想说的第二件事是,除非你有办法为 AI 研究提供资金,否则你很难开展实质性的 AI 研究。最终,他们不得不成立一个营利机构,并从微软那里获得投资。所以,尽管 OpenAI 有一定的独立性,但他们现在基本上就是微软的合作研究机构。第三点,那就是他们相信通用人工智能(AGI)指日可待,而且他们会比任何人都更早地开发出来,但他们做不到。

Sam Altman 被踢出了首席执行官的职位,然后又回到了不同的董事会,你如何看待 OpenAI 的这一戏剧性事件?你认为这对研究界或行业有什么影响吗?

我认为研究界已经不太关心 OpenAI 了,因为他们没有发表论文,也没有透露他们在做什么。我的一些前同事和学生在 OpenAI 工作,我们为他们感到难过,因为 OpenAI 出现了不稳定因素。研究工作的发展离不开稳定的环境,而一旦发生类似的戏剧性事件,人们就会变得犹豫不决。此外,对从事研究工作的人来说,另一个重要方面就是开放性,而 OpenAI 真的不再开放了。因此,从这个意义上说,OpenAI 已经发生了变化,他们不再被视为研究界的贡献者。这一切都掌握在开放平台手中。

这一事件被称为是 AI “加速主义”的胜利,而 “加速主义” 恰恰与 “灭绝论” 相反。我知道你不是一个“灭绝论支持者”,但你是一个 “加速主义者” 吗?

不,我不喜欢这些标签。我不属于任何一个思想流派。我非常谨慎,不会把这类思想推向极端,因为太容易陷入完全循环,从而做出愚蠢的事情。

欧盟最近发布了一套 AI 法规,其中有一条就是在很大程度上豁免了开源模型。这将对 Meta 和其他公司产生哪些影响?

这在一定程度上影响到了 Meta,但我们有足够的实力来遵守任何法规。对于那些没有自己的资源从头开始构建 AI 系统的国家来说,这一点要重要得多。他们可以依靠开源平台,拥有符合其文化、语言和兴趣的 AI 系统。在不远的将来,我们与数字世界的绝大多数互动都将以 AI 系统为媒介。你不会希望这些东西被加利福尼亚的少数公司所控制。

你是否参与帮助监管机构得出这一结论?

我在与监管机构探讨,但没有直接和他们交谈。我一直在与各国政府交流,尤其是法国政府,但也间接与其他国家的政府交流。基本上,他们不希望公民的数字消费被少数人控制,法国政府很早就接受了这一想法。不幸的是,我没有和欧盟层面的人谈过,他们更多受到末日预言的影响,希望对一切进行监管,以防止他们认为可能发生的灾难发生。但是,这遭到了法国、德国和意大利政府的反对,他们认为,欧盟必须为开源平台做出特别的规定。

但是,开源 AI 真的难以控制和监管吗?

对于安全性非常重要的产品,已经有相关的法规。比如,如果你要用 AI 来设计新药,就已经有法规来确保这种产品是安全的。我认为这是有道理的。人们正在争论的问题是,对 AI 的研发进行监管是否合理。我认为没有意义。

难道不会有人能利用大公司发布的复杂开源系统来占领世界吗?只要获得源代码和权重,恐怖分子或骗子就能为 AI 系统提供破坏性能力。

他们需要在某个隐蔽的地方获得 2000 个 GPU,需要足够的资金和人才来完成这项工作。

我认为,他们最终会想出如何制造自己的 AI 芯片。

没错,但它会比先进技术落后几年实现。这就是在世界历史中,每当科技进步的时候,你都无法阻止坏人获取它,然后就是善意 AI 对抗邪恶 AI。保持领先的方法就是加快进步,实现更快进步的方法是开放研究,让更多人参与其中。

如何定义 AGI?

我不喜欢 AGI 这个词,因为根本不存在通用智能。智能不是一种可以测量的线性事物,不同类型的智能实体拥有不同的技能。

一旦让计算机达到人类的智能水平,它们就不会止步于此。凭借丰富的知识、机器级的数学能力和更好的算法,它们会创造出超级智能,对吗?

是的,毫无疑问,机器最终会比人类更聪明。我们不知道这需要多长时间,可能是几年,也可能是几个世纪。

到那时,我们就得束手就擒吗?

不是。我们都将拥 AI 助手,就像与一群超级聪明的员工一起工作一样,只是它们不是人而已。人类会因此受到威胁,但我认为我们应该感到兴奋。最让我兴奋的是与比我更聪明的人一起工作,因为这会扩展你自己的能力。

但是,如果计算机获得超级智能,它们为什么还需要我们呢?

我们没有理由相信,AI 系统一旦变得智能,就会想替代人类。如果人们认为 AI 系统会有和人类一样的动机,那就大错特错了。它们不会,因为我们会在设计中进行设定。

如果人类没有建立这些目标,而超级智能系统一心追求某个目标,最终伤害了人类呢?就像哲学家 Nick Bostrom 所举的例子:一个被设计为无论如何都要制造回形针的系统,为了制造更多的回形针而占领了整个世界。

如果只是建立系统而忽略了防护措施,那就显得太愚蠢了。这就好比制造一辆搭载了 1000 马力发动机却没有刹车系统的汽车。在 AI 系统中设定目标是确保其可控性和安全性的唯一途径,我将其称之为目标驱动型 AI。这是一种全新的架构,目前我们尚未见到任何范例。

这就是你现在的工作吗?

是的,我们的想法是,机器有它需要满足的目标,它不能产生任何不符合这些目标的东西。这些目标可能包括防止危险发生的防护措施或其他东西,这就是让 AI 系统安全的方法。

你认为你会为你所促成的 AI 的后果而后悔吗?

如果我认为是这样的话,我就不会再这么做了。

你是一个爵士乐迷。AI 产生的任何东西能否与迄今为止只有人类才能产生的令人兴奋的创造力相媲美?它能创造出有灵魂的作品吗?

答案很复杂。是的,AI 系统最终将能创作出音乐、视觉艺术或其他作品,其技术质量与人类相似,甚至更胜一筹。但是,AI 系统并不具备创作即兴音乐的能力,因为即兴音乐依赖于人类的情绪和情感交流。AI 至少现在还没有这种能力,这就是爵士乐需要现场聆听的原因。

你还没回答我这种音乐是否有灵魂。

你已经有了完全没有灵魂的音乐。这种音乐可以在餐厅里播放的背景音乐中听到,主要由机器生产,这就是市场。

但我说的是艺术的顶峰。如果我放给你听的是 Charlie Parker 最好的录音,然后告诉你这是 AI 生成的,你会不会觉得被骗了?

是,也不是。是的,因为音乐不仅仅是一种听觉体验,其中很多是文化体验,这是对表演者的钦佩。你的例子就像 Milli Vanilli,真实是艺术体验的重要组成部分。

如果 AI 系统足以与精英艺术成就相媲美,而你又不知道其背后的故事,那么市场上就会充斥着 Charlie Parker 级别的音乐,而我们却无法分辨其中的差别。

我认为这没有任何问题。我还是会买原版,就像我还是会买一个价值 300 美元的手工碗,虽然我花 5 美元就能买到一个看起来差不多的东西,但它还是来自一个有着数百年文化的地方。我们仍然会去现场聆听我最喜欢的爵士音乐家的演奏,尽管他们可以被模仿。AI 系统的体验是不一样的。

你最近从马克龙总统那里获得了一项荣誉,我无法读出这些法语......

法国荣誉军团骑士(Chevalier de la Légion d'honneur)。它是由拿破仑创立的。它有点类似于英国的爵士头衔,不过我们有一场革命,所以我们不称呼人们为“爵士”。

有武器装备吗?

不,他们没有剑之类的东西。但是,拥有这种武器的人可以在衣襟上佩戴红色小条纹。

AI 模型能赢得这一奖项吗?

不会很快,反正我觉得这不是个好主意。

原文作者:Steven Levy

原文链接:

https://www.wired.com/story/artificial-intelligence-meta-yann-lecun-interview/

编译:闫一米

点击阅读原文,查看会议报名详情

以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。

快照生成时间:2024-01-04 13:45:05

本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。

信息原文地址:

图灵奖得主杨立昆:AI的逻辑推理和规划能力有限,会犯事实错误和逻辑错误
出品|搜狐科技作者|郑松毅6月9日,2023智源人工智能大会在北京举办。法国当地时间凌晨四点,被誉为“世界深度学习三巨头”之一的杨立昆(Yann LeCun)在法国视频连线北京现
2023-06-10 05:00:00
大模型不是未来?你需要学习下图灵奖得主Yann LeCun选择的“世界模型”
最近一段时间,以 GPT 为代表的大型语言模型(LLM)成就非凡,应用丛生,还被很多人视为实现通用人工智能(AGI)的重大里程碑,也由此带来了一些「大规模失业论」甚至「AI 末日
2023-06-26 13:37:00
...能发展与治理专题研讨会”,Verimag实验室创始人、2007年图灵奖得主约瑟夫·希发基思在“小组讨论一”环节的发言中表示:中国可以利用自身庞大的工业系统,在迈向自主人工智能
2024-03-26 18:53:00
图灵奖得主:中国可以在人工智能道路取得领先地位
本文转自:中国新闻网中新社北京3月25日电 (王梦瑶)图灵奖得主约瑟夫·希发基思(Joseph Sifakis)24日在中国发展高层论坛2024年年会上表示
2024-03-25 13:01:00
多位菲尔兹奖、图灵奖得主齐聚,2024国际基础科学大会开幕
...rew Chi-Chih Yao)、莱斯利·瓦利安特(Leslie G. Valiant)等3位图灵奖得主,国际数学联盟主席中岛启(Hiraku Nakajima)
2024-07-15 09:45:00
图灵奖得主现身,全球智博会有多硬核?
...幅人工智能赋能产业升级、驱动高质量发展的壮丽画卷。图灵奖得主约翰·霍普克罗夫特开讲计算机科学人才教育发展与改革,中国工程院院士高文、中国科学院院士梅宏、中国工程院院士孙凝晖等
2024-12-12 16:29:00
ChatGPT之后,人工智能未来会如何发展?——图灵奖得主、中科院院士姚期智先生畅谈未来社会
...西安高新区管委会指导,交叉信息核心技术研究院承办。图灵奖得主、中国科学院院士、清华大学交叉信息院院长、交叉信息核心技术研究院院长姚期智先生在人工智能前沿技术主旨演讲阶段,作了
2023-11-04 16:04:00
实现AGI之前 全球AI大佬在这4个关键问题上吵起来了
...回归LLM(大型语言模型),GPT系统将很快被抛弃。”这是图灵奖得主、Meta首席AI科学家、纽约大学教授Yann LeCun(杨立昆)在今年智源大会上发表的观点
2023-06-13 15:03:00
53岁周鸿祎考上清华博士;图灵奖得主杨立昆炮轰ChatGPT:五年内就没人用了;Red Hat恪守对开源的承诺|极客头条
...PT-4!谷歌 DeepMind CEO 自曝:下一代大模型将与 AlphaGo 合体图灵奖得主杨立昆炮轰 ChatGPT
2023-06-28 11:00:00
更多关于科技的资讯: