• 我的订阅
  • 科技

“ChatGPT之父”剑桥演讲被“砸场子”,“AI威胁论”已成全球大辩论

类别:科技 发布时间:2023-11-07 09:24:00 来源:钛媒体APP

可能大多数人都相信:总有一天,AI会成为人类的威胁,就像电影《终结者》那样。但是没有人知道,这天到底会发生在100年后,50年后,抑或仅仅是10年后?

在AI威胁论之下,全世界各国政府已经采取措施,11月1日,首届全球人工智能(AI)安全峰会在英国的布莱切利庄园拉开帷幕,包括中国、美国、英国和欧盟在内的超25个国家代表,以及马斯克、Sam Altman等科技巨头与会。

路透社报道称,在首届AI峰会上,最终参会所有成员国签署《布莱切利宣言》,同意通过国际合作,建立人工智能(AI)监管方法。

实际上,此次监管峰会早有“预兆”,今年5月,全球多国专家联名提交了要求“重视AI发展和监管”的信函,呼吁所有AI实验室立刻“停工6个月”,至少6个月内不能再训练比GPT-4更强大的AI模型;今年6月,在2023北京智源大会上,包括Yann LeCun、Sam Altman在内的大佬们就AI安全问题,整整讨论了一天。

那么《布莱切利宣言》到底说了什么?具体来看,它提出了一个双管齐下的议程:

1、识别共同关注的人工智能安全风险,建立对这些风险的共同科学和循证理解,并在能力不断提高的情况下,在更广泛的全球范围内保持共识,以了解人工智能对我们社会的影响。

2、根据这些风险,在各国制定各自的基于风险的政策,以确保安全,在适当的情况下进行合作,同时认识到我们的方法可能因国情和适用的法律框架而异。

这包括,除了提高开发前沿人工智能能力的私人行为主体的透明度以外,还包括适当的评估指标、安全测试工具,以及发展相关的公共部门能力和科学研究。

重点总结为:各国确定要共同关注AI可能造成的风险,并建立对这些风险的科学理解,同时制定减轻这些风险的跨国政策。

值得注意的是,《布莱切利宣言》是近年来,在全球不同阵营的战略对抗大背景之下,中、英、美等“跨大洋国家”罕见达成的一份新宣言。

适道看来,这就意味着:AI安全问题的重要性和紧迫性,已经使得处于激烈国际竞争中的各方不得不坐下来,心平气和地探讨合作的余地。

可以说,对AI问题的讨论已经成为了类似气候变化、核扩散等影响人类共同命运的重大课题。

01 AI监管是一场阴谋论?LeCun、Andrew Ng向Hinton开火

那么,在“AI安全与监管“的battle中,最近行业大佬们又有哪些新说法?

先来看看大公司代表的最新说法。

第一位Sam Altman。大家都知道他是OpenAI的创始人,但可能很少人知道Altman和奥本海默是同一天生日。

11月2日,Altman在英国剑桥参加活动时,被反AI活动的激进分子在大礼堂里当面被“砸场子”。

显然,此刻的Altman很淡定,没有变身Real奥特曼。

随后Altman在演讲中表示,即便未来AI模型足够强大,也需要有巨大的算力才能运行。如果提高了算力门槛,能够降低蓄意犯罪风险,也能提高问责性。

不过,Altman一直都是AI威胁论的支持者,他曾强调:监管机构和社会需要参与这项技术,以防止对人类可能产生的负面影响。此外,在今年5月,那份“警告AI或给人类带来‘灭绝风险’ ” 的公开信上,Altman也签了自己的大名。

为什么Altman会在剑桥的“改口”,不得不怀疑这是他担心被“揍”采取的迂回战术。

第二位AI威胁论的支持者是马斯克。他曾多次警告,AI比核武器更危险。

11月2日,马斯克在AI安全峰会期间表示:AI是人类最大威胁之一,而且AI将会成为历史上最具颠覆性的力量,并将比人类更加聪明。

随后,在和英国首相苏纳克长达40分钟的对谈中。苏纳克向马斯克表达了对AI抢走人们工作的担忧。而马斯克则描绘了一种理想化的状态:AI不会“抢走”人类的工作,因为到了一定的阶段,人类将不再需要任何工作。

对于监管,马斯克表示,“监管确实会让人讨厌。……但我认为,多年来我们已经意识到,有裁判是件好事”。而事实上,今年9月,马斯克等美国科技巨头公司高管与美国国会举行闭门会议,马斯克提出,希望为AI设立一个“裁判员”。他当时称,各方对监管AI已达成“一致性共识”。

另外,在今年5月,马斯克也签署了上文那份“警告AI或给人类带来‘灭绝风险’ ” 的公开信。

不过,“阴谋论”无处不在,也有人认为,马斯克签名是为了给自己的AI公司发展争取时间。

马斯克于2015年与他人共同创立了OpenAI,但几年后因在AI安全问题上发生冲突而离开。今年7月,他成立了自己的人工智能公司xAI。就在11月4日,xAI发布公告称,正式推出Grok大语言模型。马斯克还顺便在推特上拉踩了一下GPT:“ 与典型GPT的相比,Grok具有当前信息,但GPT等其他的则没有。”

再来回顾一下近期“图灵奖”得主的瓜,参战方包含:Geoffrey Hinton、Yann LeCun 、Andrew Ng、Yoshua Bengio。

Hinton和Bengio观点基本一致,他们认为要加强对AI的监管。

有一个小故事,Hinton用完GPT-4后觉得很震惊,他觉得虽然推理是人类的强项,但GPT-4完成了他认为不可能完成的常识性推理,智商大概是80或90左右,因此Hinton觉得AI更加可怕。

LeCun的观点则不尽相同,他始终认为AI的发展远未构成对人类的威胁,并提出了那句“没有车造什么刹车”的经典比喻。

最近的混战始于10月30日,起源是当日美国总统拜登签署了一项针对AI的新的行政命令,这是针对AI安全标准方向采取有史以来最全面的行动。但新的行政命令却加强了对AI巨头公司的支持力度,如通过研究资金和其他手段支持AI研究、吸引外国人才等等。

于是,LeCun马上在推特上开火,他认为:如果一些人(Hinton 和 Bengio 等人)的恐惧宣传活动取得成功,将不可避免地造成灾难性的结果:少数公司将控制 AI。

“ChatGPT之父”剑桥演讲被“砸场子”,“AI威胁论”已成全球大辩论

Andrew Ng很快力挺LeCun ,他写道:我对AI的未来最大的担忧是,过度夸大风险(例如人类灭绝)可能会促成人们制定压制开源和压制创新的规定。

当一些来自大公司的游说者让法规制定者认为AI是非常危险的,从而制定出一些导致开源社区AI研究进展缓慢的法规,这会导致小型初创公司遭遇创新瓶颈,最后的获利者可能就是一些巨头。

Hinton迅速反击:如果AI不受到严格监管,它在未来30年内灭绝人类的概率是多少?

LeCun则反问:AI实际上可能会拯救人类免于灭绝,你估计这个概率是多少?

不过,“阴谋论”确实让Hinton破防了,他很快发了一条推特自证:我从谷歌离职就是对“阴谋论”观点最好的反驳。

结果就是,Bengio、Hinton 等人发联名信《在快速发展的时代管理人工智能风险》,呼吁在开发AI系统之前,研究者应该采取紧急治理措施。

与此同时,一封名为《人工智能安全和开放的联合声明》的公开信正在社交媒体发酵。这封信在结尾表明:在人工智能安全方面,开放是解药,而不是毒药。截至目前,LeCun、Andrew Ng等370多人已经在这封公开信上签名。

有趣的是,今年10月22日,LeCun还晒出了他和Hinton、Bengio的合照,不知道此次battle会不会影响三大巨头的友谊,我们可以继续吃瓜。

“ChatGPT之父”剑桥演讲被“砸场子”,“AI威胁论”已成全球大辩论

02 国内观点:AI监管要在发展中解决问题

总体来说,“AI威胁论”分为两派:

那么在“AI威胁论”方面,国内行业内专家有哪些精华观点?

根据腾讯科技和赋雅FOYA联名出品的创投圈首档辩论节目《创投变辨辩》第一季第四期中所展现,赞成AI威胁论的“威胁派”代表是黄民烈指导下的清华大学CoAI课题组,而反对鼓吹AI威胁论的“乐观派”代表则是IDEA研究院、封神榜大模型开源团队负责人甘如饴。他们的观点具体有以下三点:

1、AI是否具备“犯罪能力”?

“威胁派”认为:AI发展到现在,已经展示出了一定的自主性,优化速度之快远超想象,AI做决策的依据,是基于开发技术和数据,而不是人类社会的道德伦理原则,AI 容易“三观不正”。

“乐观派”认为:AI还没有展现出真正的自主学习能力,要先给AI喂数据,它才能学习。此外,基于深度学习的AI还没有达到能够进行交互式学习,也没有进化出更高级智能水平的程度。

2、AI是否会产生“犯罪动机”?

“威胁派”认为:虽然AI的动机是由开发者赋予的,但在实现人类目的的过程中,AI会抛弃道德标准。

“乐观派”认为:人类作为开发者,可以对动机进行一个最基本的规范。

3、人类是否要限制AI的应用?

“威胁派”认为:在进一步推进AI的应用层面的发展之前,必须把研究的重点放到真正“理解”AI上来,在此之前,应该限制AI的大规模的应用和实验。

“乐观派”认为:没有必要对AI的应用和实验进行特别的限制,但可以对AI的物质基础,也就是算力和能源等“物理”资源控制来应对风险。

不过总体而言,在这场辩论中,正反双方的主要分歧点在于时间维度,即正方更多是从长期的角度出发,而反方则更多从短期的角度出发。

最后,在主持人英诺天使基金合伙人王晟的看来,他认为“当然要监管”,但诸如“停工6个月提议”的“一刀切”,既不现实也不合理。AI监管要在发展中解决问题,摸着石头过河。借用此前的LeCun比喻,“边造车,边造安全带”。

03 从应用场景出发,AI治理良方看中国

总而言之,关于“AI安全与监管”的争论无休无止。因为思维模式的不同,夹杂利益立场的纠葛,从目前来看,谁都说服不了谁。

那么,我们从解决现实问题的角度来看,在AI监管方面,目前有没有治理良方?

美国《外交政策》杂志网站一篇文章指出:比起美国试图将所有问题解决方案打包塞进一项立法的天方夜谭,中国是找出AI最具隐患的代表性应用场景,并制定一系列法规来逐个破解,与时俱进持续更新政策,丰富对症下药的监管措施。一旦早期的规定不足以应对人工智能技术的快速发展时,国家也可以迅速对修订这些法规。

文章作者Matt Sheehan认为,中国在人工智能领域建立了较为完善的法律法规,监管措施领先全球,美国政府应当向中国学习,借鉴中国的AI监管经验。

或许,借鉴与合作是各国实现AI治理的大方向。

以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。

快照生成时间:2023-11-07 12:45:42

本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。

信息原文地址:

辱骂、示爱、监视……马斯克建议“关闭”ChatGPT版必应
...时表现得像精神病一样,会给用户错误答案。对此,“AI威胁论”支持者马斯克回复称:“同意。它显然还不安全。”来源:推特截图事实上,早在2017年,马斯克就提出了“AI威胁论”,
2023-02-19 16:00:00
伊朗军舰抵达红海,美军核航母火速撤离,以色列向中国“开火”
...给以色列出的这招,简直老套到家了!玩的还是炒作中国威胁论那一套,但凡一个地区爆发冲突,总会曝出中国武器现身战场这样的新闻,无聊透顶。中国是武器出口大国,我们没有权利也没有义务
2024-01-05 09:07:00
中国和以色列,关系到底怎么样?
...单,中国和以色列,没有根本的利害冲突。西方炒作中国威胁论,但哪个犹太人会相信,中国人会威胁犹太人的生存?事实上,历史上反犹最厉害的,都是西方。中国,却在最关键的时候,对犹太人
2023-10-27 15:56:00
第7舰队司令:“闪电航母”比福建舰强,可在台海冲突参战
.../p>在活动中,他先是大肆炒作了一番老生常谈的“中国威胁论”,随后,他表示,为了保持优势、保证“亚太地区和平稳定”,美国可在潜在的台海冲突中使用“闪电航母”,阻止解放军的行动
2022-12-12 19:40
马斯克:只要满足电力需求,比人类更聪明的AGI将在两年内实现
...表现出想要加入AI竞赛的积极态度,这与他去年高举“AI威胁论”的立场截然相反。马斯克曾警告称,超强大的AI工具可能对社会和人类构成“深刻风险”
2024-04-09 15:34:00
AI监管和开放,到底如何平衡?
...公司手中。辩论不断升级,OpenAI首席执行官SamAltman最近在剑桥参加活动时,甚至遭到了激进分子的强烈抵制
2023-11-04 13:54:00
这一轮,中国能赢美国么
...自己的道路。GPT推动了不少行业发展,但也再次引发“AI威胁论”从20世纪50年代的图灵测试到历史上第一次人工智能研讨会上“人工智能”概念的提出
2023-04-18 11:28:00
创始人大婚,ChatGPT打响下半场
...自己抓紧干的另一边,公开场合的两位却都是“人工智能威胁论”的支持者。 尤其马斯克,当年甚至还曾游说奥巴马,建议政府对人工智能加强监管。也是为了亲身投入到对人工智能的风险防御
2024-01-15 07:00:00
美军航母,被伊朗“骂出”波斯湾,跑红海找场子,软柿子也不好捏
对内,由于误杀人质一事,以色列内塔尼亚胡政府遭到国内民众的激烈抗议;在外,法国为首的西方盟友喊话巴以冲突尽快停火。这时,美国停在波斯湾的航母作战群动了。【美军“艾森豪威尔”号航母
2023-12-20 13:59:00
更多关于科技的资讯: