• 我的订阅
  • 科技

OpenAI首席科学家有个计划,寻找方法控制超级人工智能

类别:科技 发布时间:2023-12-15 14:04:00 来源:网易科技报道

12月15日消息,早在OpenAI成立之初,便承诺构建有益于全人类的人工智能,即使这些人工智能有可能比其创造者更聪明。自ChatGPT首次亮相以来,OpenAI的商业野心逐渐凸显。最近,该公司宣布成立了一个致力于研究未来超级人工智能的新研究团队,并已经开始取得一些成果。

OpenAI的研究人员利奥波德·阿森布伦纳(Leopold Aschenbrenner)指出:“通用人工智能(AGI)正在迅速接近,我们将看到具有巨大能力但也可能非常危险的超智能模型,而我们还没有找到控制它们的方法。”他参与了今年7月成立的“超级对齐”(Superalignment)研究团队。OpenAI表示,将把其可用算力的五分之一用于“超级对齐”项目,以探索如何确保超级人工智能的安全性和可控性。

OpenAI最近发布了一篇研究论文,介绍了一项实验结果。该实验旨在测试一种方法,让一个较差的人工智能模型在不降低智能的情况下指导一个更聪明的人工智能模型。尽管所涉及的技术还没有超过人类的灵活性,但该实验是为了应对未来人类必须与比自己更聪明的人工智能系统合作的时代而设计的。

在实验中,OpenAI的研究人员检查了一种被称为监督的过程,它被用来调整像GPT-4这样的系统,使其更有帮助、更少伤害。GPT是ChatGPT背后的大语言模型。目前,这涉及到人类向人工智能系统反馈哪些答案是好的,哪些是坏的。随着人工智能的进步,研究人员正在探索如何将这一过程自动化以节省时间。此外,这也是因为他们认为,随着人工智能变得越来越强大,人类可能无法提供有用的反馈。

在对照实验中,研究人员使用OpenAI于2019年首次发布的GPT-2文本生成器来教授GPT-4,并测试了两种解决方法。其中一种方法是逐步训练更大的模型,以减少每一步的性能损失;另一种方法是对GPT-4进行了算法调整,允许较强的模型遵循较弱模型的指导,而不会削弱其性能。第二种方法被证明更有效,尽管研究人员承认这些方法并不能保证更强的模型会完美运行,但可以将其作为进一步研究的起点。

人工智能安全中心主任丹·亨德里克斯(Dan Hendryks)表示:“很高兴看到OpenAI主动解决控制超级人工智能的问题,我们需要多年的努力来应对这一挑战。”人工智能安全中心是旧金山一家致力于管理人工智能风险的非营利组织。

阿森布伦纳与“超级对齐”团队的其他两名成员科林·伯恩斯(Collin Burns)和帕维尔·伊兹梅洛夫(Pavel Izmailov)在接受采访时均表示,他们为迈出重要的第一步感到鼓舞,认为这有助于驯服潜在的超级人工智能。伊兹梅洛夫打了个比方:“就像一个六年级的学生,尽管他们比大学数学专业的学生所掌握的数学知识要少,但他们仍然能够向大学生传达他们想要达到的目标,而这正是我们所追求的效果。”

“超级对齐”团队由OpenAI的首席科学家和联合创始人伊利亚·苏茨凯弗(Ilya Sutskever)共同领导。苏茨凯弗也是上个月投票解雇首席执行官萨姆·奥特曼(Sam Altman)的原董事会成员之一。不过后来他撤回了这一决定,并威胁说如果不让奥特曼复职,他就辞职。苏茨凯弗是这篇最新论文的合著者,但OpenAI拒绝让他讨论这个项目。

上个月,奥特曼与OpenAI达成了协议,董事会的大部分成员都已经辞职,苏茨凯弗在OpenAI的未来也充满了不确定性。尽管如此,阿森布伦纳表示:“我们非常感谢苏茨凯弗,他是这个项目的推动者。”

在人工智能领域,OpenAI的研究人员并不是第一个尝试使用现有技术来测试有助于驯服未来人工智能系统的团队。然而,与之前的企业和学术实验室的研究一样,我们无法确定在精心设计的实验中有效的想法在未来是否实用。研究人员将让一个较弱的人工智能模型训练一个更强的人工智能模型,他们称这种能力为“解决更广泛的‘超级对齐’问题的关键组成部分”。

这种人工智能对齐实验也引发了一个关键问题:控制系统的可信度有多高?OpenAI新技术的核心在于,更强大的人工智能系统能够自己决定可以忽略较弱系统的哪些指导,这种选择可能会使其忽略可能阻止其未来以不安全方式行事的重要信息。为了使这样的系统有效,需要在提供一致性方面取得进展。伯恩斯强调:“你最终需要高度的信任。”

加州大学伯克利分校研究人工智能安全的教授斯图尔特·拉塞尔(Stuart Russell)表示,使用不那么强大的人工智能模型来控制更强大人工智能模型的想法已经存在了一段时间。但他也指出,到目前为止,我们还不清楚用于教授人工智能行为的方法是否可行,因为它们尚未能使当前的模型可靠地运行。

尽管OpenAI正在迈出控制更先进人工智能的第一步,但该公司也渴望获得外界的帮助。OpenAI宣布将与谷歌前首席执行官埃里克·施密特(Eric Schmidt)合作,向外部研究人员提供1000万美元的资助,以鼓励他们在从弱到强的监管、高级模型的可解释性以及针对旨在打破限制的提示下加强模型等领域取得进展。参与撰写这篇新论文的研究人员表示,OpenAI明年还将举行一次关于“超级对齐”的会议。

作为OpenAI的联合创始人,也是“超级对齐”团队的联合负责人,他领导了该公司许多最重要的技术工作。同时,他也是越来越担心如何控制人工智能的知名专家之一,因为人工智能变得越来越强大。今年以来,如何控制未来人工智能技术的问题获得了新的关注,这在很大程度上归功于ChatGPT的影响。苏茨凯弗曾在深度神经网络先驱杰弗里·辛顿(Geoffrey Hinton)的指导下攻读博士学位。后者于今年5月离开谷歌,以警告人们人工智能在某些任务中似乎正在接近人类的水平。(小小)

以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。

快照生成时间:2023-12-15 16:45:04

本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。

信息原文地址:

国内首款多体智能软件“微著”在渝发布 未来将逐步开源
...讯(首席记者 佘振芳)9月23日下午,上海交通大学重庆人工智能研究院发布最新研发成果“多体智能软件-微著”。多名院士,高校和研发机构的专家学者,百家应用领域企业出席会议。活动
2023-09-23 19:10:00
OpenAI首席科学家:ChatGPT已经出现意识,人类未来将与AI融合
...hatGPT背后的神经网络已经产生了意识,而且未来人类会与人工智能融合起来,出现新的形态。而他现在工作的重点,已经不是去创建那个必然会出现的通用人工智能,而是解决如何让AI善
2023-11-04 09:32:00
Meta首席AI科学家:开源大模型正在搅动大模型行业竞争格局
...Meta在官网文章中表示:“我们相信,开源的方法是当今人工智能模型发展的正确途径,尤其是在技术进步日新月异的生成式领域
2023-07-22 23:13:00
Chat AI项目丨对标DeepMind Gato,人工智能模型「DB1」已在多领域落地验证
...域的大模型也开始出现在聚光灯下。36氪近期接触到一家人工智能模型公司「谜题科技」,聚焦在决策智能领域,于2022年12月发布推出了对标DeepMind Gato的人工智能模型DB1
2023-04-19 09:26:00
“AI教父”离职,就技术风险发出警告,AI真的是洪水猛兽吗?
“人工智能正在变得比人类更聪明,我想要‘吹哨’提醒人们应该认真考虑如何防止人工智能控制人类。”杰弗里·辛顿在接受外媒采访时表示,他已于上周辞去在谷歌的工作,并就其长期推广的AI技
2023-05-09 15:00:00
中交二航局首席科学家张鸿:“硬核”科技助力桥梁工业化智能建造提档升级
...感知缆索关键技术、特大型水中沉井基础建造技术、基于人工智能驱动的混凝土产业绿色化关键技术、桥梁预制结构工业化建造关键技术、桥梁智能建造与服务云平台关键技术等国际领先技术,以及
2023-06-19 17:33:00
AI警报频发:美国副总统约见企业CEO FTC主席撰文呼吁监管
美国监管人工智能的行动上升到白宫层面。当地时间5月4日,美国副总统卡马拉·哈里斯(Kamala Harris)将与顶级人工智能企业Alphabet(谷歌母公司)
2023-05-05 10:24:00
中国移动首席科学家冯俊兰:AI未来像通信一样方便、低成本
...网中新网8月4日电 (中新财经记者 吴涛)“中国移动始终将人工智能作为公司转型战略的核心部分,不仅布局早,而且在智能服务运营创新方面开展了一系列的探索和实践。自2013年伊始
2023-08-04 21:32:00
OpenAI高层“巨震”,多方猜测阿尔特曼离职原因
一夜之间,全球生成式人工智能技术的“领头羊”OpenAI的管理层突然“变天”。美东时间周五(11月17日),OpenAI董事会表示
2023-11-18 22:27:00
更多关于科技的资讯: