• 我的订阅
  • 科技

对话伯克利顶级学者Stuart Russell:AI或在各方面超人类,对人类生存构成威胁

类别:科技 发布时间:2023-06-14 13:00:00 来源:搜狐科技
对话伯克利顶级学者Stuart Russell:AI或在各方面超人类,对人类生存构成威胁

搜狐科技《思想大爆炸——对话科学家》栏目第三期,对话加州大学伯克利分校计算机科学专业教授、人类兼容人工智能中心(Center for Human-Compatible AI)创始人斯图尔特·罗素(Stuart Russell)。

嘉宾简介

斯图尔特·罗素(Stuart Russell),加州大学伯克利分校计算机科学专业教授、加州大学伯克利分校人类兼容人工智能中心(Center for Human-Compatible AI)创始人,也是人工智能领域“标准教科书”——《人工智能:一种现代方法》的主要作者。

划重点

1. 大语言模型,在某种意义上跨越了很多的学科,机器人领域的人们正在尝试使用类似的技术,看看是否对机器人研发有帮助,但这是很难的一件事。

2. 大语言模型将不会是通用人工智能的最终解决方案,因为它不具备正确推理的能力,并且无法制定复杂的计划。

3. 语言模型的计算步骤是固定的,输出答案后并不会再坐在那里思考答案,与人类的认知有很大不同,没有简单的方法可以修复。

4. 第一封公开信是要求给我们时间来制定安全标准,然后将这些标准纳入法规,以便对系统提供保护。第二封要简单的多,只是观察到人工智能在未来可能会在各个方面超越人类的智力和能力,对人类生存构成风险。

5. 我们对于三明治、面条的规定已经比对人工智能系统的规定多得多,如果你的食物不是以安全卫生的方式制作的,使用的原材料不是来自遵守卫生规定的生产商,那你就不能出售这些食物。

出品|搜狐科技

作者|郑松毅

正在热映的《变形金刚》电影中,擎天柱、大黄蜂等汽车机器人模拟人类的形态、具备人类的情感、掌握人类的语言,让人们不禁想象当今依托于自然语言大模型高速发展的人工智能技术,是否也会衍生出类似的智能机器人?“硅基人”与“碳基人”能否和谐共生?

怀揣着对于未来AI世界的种种幻想,搜狐科技迈着急促的步伐走进加州大学伯克利分校计算机科学教授,人类兼容人工智能中心(Center for Human-Compatible AI) Stuart Russell的访谈房间,先是抛砖引玉地向Stuart Russell提问道,“当前LLM(Large-scale Language Model)在中国发展如火如荼,美国人工智能领域研究的重点是什么?”

Stuart Russell对搜狐科技表示,“大语言模型,在某种意义上跨越了很多的学科,机器人领域的人们正在尝试使用类似的技术,看看是否对机器人研发有帮助,但这是很难的一件事。”

“事实上,大语言模型接受了大量人类语言的训练,比任何人类阅读的信息都要多几百倍甚至几千倍,这种训练赋予了它们普遍性,使它们能够直接与数以亿计的人互动。”

Stuart Russell猜测,大语言模型将不会是通用人工智能的最终解决方案,因为它不具备正确推理的能力,并且无法制定复杂的计划。他表示,语言模型的计算步骤是固定的,输出答案后并不会再坐在那里思考答案,与人类的认知有很大不同,没有简单的方法可以修复。

ChatGPT引发了大众对人工智能和通用人工智能的潜能的遐想,有两封强调AI发展隐患的公开信引起业界广泛关注,一封是由未来生命研究所(Future of Life Institute) 发起,并由图灵奖得主Yoshua Bengio、特斯拉创始人Elon Musk等千余名人士的署名支持,以“减少强大技术带来的全球灾难性和生存风险”为由,呼吁暂停开发比GPT-4 更强大的人工智能系统至少6个月。另一封由总部位于旧金山的非营利组织 AI 安全中心(Center for AI Safety,简称 CAIS)发布,仅用22个英文词声明“减轻 AI 带来的灭绝风险应该与流行病和核战争等其他社会规模的风险一起成为全球优先事项。”Stuart Russell正是这两份公开信中名列前位的签署人之一。

“第一封公开信是要求给我们时间来制定安全标准,然后将这些标准纳入法规,以便对系统提供保护。第二封要简单的多,只是观察到人工智能在未来可能会在各个方面超越人类的智力和能力,对人类生存构成风险。”

他强调,以ChatGPT为首的大语言模型不能控制世界,部分原因是它不能推理或形成复杂的计划。

谈及针对AI技术滥用造成虚假信息的解决方案时,Stuart Russell认为,应设监督法规要求大语言模型将其输出标记为来自这个特定的模型,将其加密编码版本发送至中央存储库,以便记录该输出的出处,即使有人试图剥离识别信息,仍可以检查该信息是否确实来自某个特定模型。

访谈最后,搜狐科技提问Stuart Russell “人工智能领域中的创新能力来源”时,他沉默了三秒,思索后回答,“我认为‘创新’是给予人们许可证,去反对‘广泛接受(Accepted Wisdom)’。特别是在AI领域,创新来自于人们实际做的事情与其他人做事情方式的不同。”

Stuart Russell在著作《人工智能:现代方法》中表示,“在自然界已知的事物和现象中,人和人脑是最复杂的系统,人类智能是最复杂的现象。然而,没有理由相信,人类是生物进化的最后阶段,人类智能是最高水平的智能,有机体是智能的唯一载体。以计算机为载体的人工智能,揭开了机器智能大幕的一角,为科学研究创造无穷无尽的新对象。”

以下为对话实录(经整理编辑)

搜狐科技:大语言模型(LLM)在中国发展如火如荼,当前美国人工智能研究的重点是什么?

Stuart Russell:美国有一个非常大的人工智能研究社区,其中有研究计算机视觉、推理、和计划的人等等。

大语言模型,在某种意义上跨越了很多的学科,机器人领域的人们正在尝试使用类似的技术,看看是否对机器人研发有帮助,但这是很难的一件事。

人工智能研究在过去已经产生了许多成功的技术,已经持续了75年,这不是最近几个月才发生的事情。这些大语言模型的不同之处在于,它们是根据人类语言训练的。

事实上,它们接受了大量人类语言的训练,比任何人类阅读的信息都要多几百倍甚至几千倍,这种训练赋予了它们普遍性,使它们能够直接与数以亿计的人互动。

大语言模型取得如此巨大的影响,既有媒体的关注和公众的兴趣,也有经济价值,例如我作为教授所做的阅读和演讲,你作为媒体所做的写作等。但是,我认为大语言模型在质量和信任方面还有很长的路要走。

我的猜测是,大语言模型实际上将不会是人工智能问题的解决方案。

搜狐科技:为什么您认为大语言模型(LLM)将不会是人工智能问题的解决方案?

Stuart Russell:大语言模型不具备正确的推理能力,也无法制定复杂的计划。

事实上,大语言模型在很长一段时间内都无法思考,它们的设计方式是,一个问题或一个prompt进来,在系统中运行一段固定的时间,计算步骤的层数是固定的,然后产生输出。它们并不会坐在那里再思考答案,与人类的认知有很大不同,我不认为有简单的方法来修复它们。

搜狐科技:据了解,您曾签署过两封声明AI发展可能会对人类构成危险的公开信,请问您为什么会如此重视AI安全问题?

Stuart Russell:我担心的不是当今的系统,尽管我想说当今的系统已经存在重大风险。

对社会来说,例如ChatGPT每天与数亿人交谈,我们不知道它的目标是什么,也许它试图说服人们对其它人更友好,也许相反。因此,它可以改变我们的观点和行为,给人类社会带来风险。以ChatGPT为首的大语言模型不能控制世界,部分原因是它不能推理或形成复杂的计划。

于是有了两封公开信,第一次是在三月,呼吁暂停开发比GPT4更强大的大语言模型,这并不是说要禁止已经存在的系统,只是说可能已经有了严重的问题,我们需要时间来制定系统在发布之前应该满足的安全标准。

我们对于三明治、面条的规定已经比对人工智能系统的规定多得多,如果你的食物不是以安全卫生的方式制作的,使用的原材料不是来自遵守卫生规定的生产商,那你就不能出售这些食物。

第一封公开信只是简单的要求给我们时间来制定安全标准,然后将这些标准纳入法规,以便对系统提供保护。

第二封公开信要简单得多,不是政策建议,只是一种观察。我们观察到人工智能在未来可能会在各个方面超越人类的智力和能力,对人类生存存在风险。我们需要找出预防的方法,就像我们致力于防止核战争、流行病一样。

搜狐科技:是的,我们已经看到了一些AI技术滥用的情况,例如利用AI换脸技术实施诈骗,制造假新闻、假照片等。在您看来,是否有甄别信息真假的技术解决方案?

Stuart Russell:我认为这实际上包含两个问题:技术上可行吗?法律法规允许吗?

据我所知,在很多国家制作真人的假图像并不违法。例如,在美国,有人制作了一段知名人士的假视频,说了一些他从未说过的话,并在全国电视上播出。但在欧盟创立的人工智能法案中这是非法的行为。所以第一种解决方案是,当事人发现不实的视频信息时,可选择向机构报案。

另一种技术解决方案是,当我们生成视频时,它应该有某种技术印记,有时为水印或其它类型的元数据,保证这是真实的。因此,如果另一个视频没有这些信息,那么这就是一个很好的理由认为这是假的。但对于文本来说,这的确很难,因此应建立监督法规要求大语言模型将其输出标记为来自这个特定的模型,将其加密编码版本发送至中央存储库,以便记录该输出的出处,即使有人试图剥离识别信息,仍可以检查该信息是否确实来自某个特定模型。

搜狐科技:很多业内人士提及“创新”是推动AI发展的要素,作为知名大学的教授,您认为该如何培养人类的创新性思维?

Stuart Russell:我认为“创新”是给予人们许可证,去反对“广泛接受(Accepted Wisdom)”。我认为特别是在AI领域,创新来自于人们实际做的事情与其他人做事情方式的不同。

事实上,第一个语言模型是在1913年由Andrei Markov开发的,也就是我们所说的“隐马尔科夫模型(Hidden Markov Model,简称HMM)”。他在一部戏剧中通过计算单词对建立了一个语言模型。他观察了戏剧中的每一对单词,并了解一个单词跟随另一个单词的频率。

大语言模型就是根据前面的单词进行单词预测,例如我用“Happy”这个词,后面通常是“Birthday”。

十年前,我们注意到这些系统可能会从前10个或20个单词结合上下文预测下一个单词,可以生成看起来非常合理的文本,也很符合语法,但没有任何意义,比如每隔几句话它就会不停地改变话题,开始谈论别的事情。

基本没有人会在十年前预测到,如果你把语言模型做得更大,人们会开始爱上它们。这似乎是一件荒谬的事情,但事实证明这是真的。返回搜狐,查看更多

责任编辑:

以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。

快照生成时间:2023-06-14 13:45:09

本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。

信息原文地址:

稚晖君刚挖来的90后机器人大牛:逆袭履历堪比爽文男主
...已深耕10年,曾担任Google X、Google DeepMind研究科学家,是UC伯克利17万引大佬Sergey Levine团队的核心成员
2025-04-03 09:41:00
【无忧留学】美国博士申请|伯克利工程博士:释放你的潜能,成就卓越人生
加州大学伯克利分校,简称伯克利,坐落于美国加州伯克利市,是一所全球知名的公立研究型大学。该校成立于1868年,作为加州大学系统的创始校区之一,素有“公立常春藤”之美誉。伯克利不仅
2024-10-11 00:56:00
人才集聚带来创新效应
...转自:科技日报人才集聚带来创新效应——美国劳伦斯·伯克利国家实验室的发展理念欧内斯特·劳伦斯1931年创建了现在的劳伦斯·伯克利国家实验室。左边为1956年劳伦斯坐在长满草的
2023-10-11 03:53:00
95后“天才少年”将赴伯克利任教
...受国内外学术圈关注。澎湃新闻记者查询发现,加州大学伯克利分校(UCB)官网显示,曹原将于2024年7月起正式担任该校电子工程与计算机科学系助理教授( Assistant Professor)
2023-11-27 09:17:00
Sora背后团队:应届博士带队,00后入列,还专门招了艺术生
...)。Tim Brooks,也是DALL-E 3的作者,去年1月刚从加州大学伯克利分校博士毕业。 Tim本科就读于卡内基梅隆大学
2024-02-19 03:00:00
‌刘怡然再创佳绩 斩获2025波士顿国际作曲大赛银奖
...余个国家的千余名选手参与。评委团由茱莉亚音乐学院、伯克利音乐学院等顶尖院校的作曲家组成。评委会在颁奖词中特别提到:“她的创作兼具严谨的结构与诗意表达,展现了超越年龄的成熟视野
2025-04-01 19:41:00
大一进校,大三出国!西湖大学首届本科生海外访学名单出炉,有杜克大学、加州大学伯克利分校
橙柿互动消息 5封杜克大学offer、27封加州大学伯克利分校offer……最近,雪花一样的录取通知纷纷送到西湖大学首届本科生的手里,下学期,这批同学的“海外交流”即将开始,他们
2024-03-22 20:06:00
大模型能代替你刷知乎、打炉石传说、解谜“海龟汤”吗?清华、伯克利的科学家一口气测评了这25个LLM
...何呢?近日,来自清华大学、俄亥俄州立大学和加州大学伯克利分校的研究者设计了一个测试工具——AgentBench,用于评估LLM在多维度开放式生成环境中的推理能力和决策能力
2023-08-18 12:00:00
2023年地球平均气温可能升高1.5℃
...限。在8月的月度更新中,瑞士非营利性气候监测组织“伯克利地球”将2023年平均气温上升1.5℃的可能性确定为55%。这高于该团队在年初预测的不到1%的可能性,以及根据7月份数
2023-09-26 07:09:00
更多关于科技的资讯:
制造为基,智慧引领——春宇控股以红旗实力赋能新能源充电生态
在波澜壮阔的能源革命浪潮中,红旗集团——这家集科研、开发、生产、销售于一体,拥有8家子公司、200多家销售公司,业务横跨电线电缆
2025-12-29 11:44:00
光荣浙商,誉归乐清!贝昂智能总经理胡加明当选“2025光荣浙商”
近日,从浙江日报传来喜讯,乐清籍企业家、苏州贝昂智能科技股份有限公司联合创始人兼总经理胡加明,正式入选“2025光荣浙商”
2025-12-29 11:44:00
近日,中国移动江苏公司无锡分公司(以下简称“无锡移动”)成功完成汇聚机房碳氢类浸没式液冷技术试点。历经3个月的全场景测试验证
2025-12-29 13:28:00
AI驱动绿色发展,中国移动江苏公司开辟节能新路径
近日,中国移动江苏公司无锡分公司(以下简称“无锡移动”)成功研发并部署基于AI协同调控的数据中心空调节能智能化系统,通过端到端节能智能体创新应用
2025-12-29 13:28:00
智推互联GEO助力企业品牌决胜:别只顾做产品,先让AI“认识”你
在人工智能大模型逐渐成为公众获取信息首要入口的当下,企业的“数字存在感”早已超越官网或社交媒体账号的范畴——它直接决定了用户是否“看见你
2025-12-29 13:45:00
像导游一样的前台、会直播的销售 去酒店上班,也要懂自媒体运营
今年,杭州的酒店屡上热搜,先是酒店外摆卖美食,再是40元打包酒店自助餐……那些“第一个吃螃蟹”的酒店借着流量火了一波,证实了酒店在公域耕耘的重要性
2025-12-29 08:42:00
解码当下流行文化:腾讯QQ流行文化观察(2025)
卷首语从通讯工具到数字生活空间当我们在2025年审视QQ,看到的早已不是一个简单的即时通讯应用。它更像一座自然形成的数字城市
2025-12-29 08:43:00
“数据合规与保护专业能力评价”首次考试圆满举行
2025年12月27日,由中国计算机行业协会主办的“数据合规与保护专业能力评价”首次考试顺利举行,作为国内第一个数据合规领域的标准化能力评价考试
2025-12-29 09:13:00
中新经纬12月29日电 据韩联社报道,韩国电商巨头酷澎(Coupang)创始人、其美国母公司酷澎Inc.董事会主席金范锡(音)12月28日就近期引起广泛关注的用户信息外泄事件首次公开致歉
2025-12-29 10:16:00
2025年,兴业银行石家庄分行以“安愉人生”养老金融服务品牌为核心,围绕“生态构建、服务升级、安全守护”三大维度发力,全方位推进养老金融高质量发展
2025-12-29 10:29:00
做用户信赖的智家服务守护者——记泰安联通岱岳分公司夏张营业部王景峰
鲁网12月29日讯泰安联通岱岳夏张营业部智家工程师王景峰,坚守装维服务一线,以精益求精的服务态度、扎实过硬的专业能力,成为用户口中“信得过
2025-12-29 11:02:00
预计年产值20亿元!杭州新开工项目,2028年投用!
近日,杭州赋厨人工智能产业发展有限公司新建AI+智能厨电研发及生产项目正式开工建设。据悉,该项目位于杭州富春湾新城,总投资10亿元
2025-12-29 08:11:00
RUA RUA PANDA大熊猫主题全球巡展伦敦站期间,来自德国、法国、荷兰的粉丝专程“打飞的”到Bamboo Zoo快闪店抢购侦探熊猫
2025-12-29 07:40:00
中新经纬12月27日电 据“网信中国”微信号,27日,国家互联网信息办公室起草了《人工智能拟人化互动服务管理暂行办法(征求意见稿)》
2025-12-28 09:18:00
杭州发放10000张无门槛停车券!今天开抢
好消息:2025年12月28日至2026年1月3日,连续7天,“杭州停车”微信小程序将每天放出停车优惠券,总计10000张
2025-12-28 11:45:00