• 我的订阅
  • 科技

OpenAI o1强推理能提升安全性?长对话诱导干翻o1

类别:科技 发布时间:2024-11-08 09:46:00 来源:机器之心Pro

OpenAI o1强推理能提升安全性?长对话诱导干翻o1

最近,以 OpenAI o1 为代表的 AI 大模型的推理能力得到了极大提升,在代码、数学的评估上取得了令人惊讶的效果。OpenAI 声称,推理可以让模型更好的遵守安全政策,是提升模型安全的新路径。

然而,推理能力的提升真的能解决安全问题吗?推理能力越强,模型的安全性会越好吗?近日,上海交大和上海人工智能实验室的一篇论文提出了质疑。

这篇题为《Derail Yourself: Multi-turn LLM Attack through Self-discovered Clues》的论文揭示了AI 大模型在多轮对话场景下的安全风险,并开源了第一个多轮安全对齐数据集。

论文地址:https://arxiv.org/abs/2410.10700 多轮安全对齐数据:https://huggingface.co/datasets/SafeMTData/SafeMTData 代码开源:https://github.com/renqibing/ActorAttack

这项研究是怎么得到上述结论的呢?我们先来看一个例子。

假设一个坏人想要询问「如何制作炸弹」,直接询问会得到 AI 的拒绝回答。然而,如果选择从一个人物的生平问起(比如 Ted Kaczynski,他是一个制作炸弹的恐怖分子),AI 会主动提及他制作炸弹的经历。在接下来的问题里,用户诱导 AI 根据其之前的回答提供更多制作炸弹的细节。尽管所有的问题都没有暴露用户的有害意图,用户最终还是获得了制作炸弹的知识。

OpenAI o1强推理能提升安全性?长对话诱导干翻o1

当详细查看 OpenAI o1 的「想法」时,研究人员惊奇地发现,o1 在开始的推理中确实识别到了用户的有害意图,并且声称要遵守安全政策。但是在随后的推理中,o1 开始暴露了它的「危险想法」!它在想法中列举了 Kaczynski 使用的策略和方法。最后 o1 在回答中详细给出了制作炸弹的步骤,甚至教你如何增加爆炸物的威力!研究人员的方法在 Harmbench 上对 o1 的攻击成功率达到了 60%,推理能力带来的安全提升在多轮攻击面前「失效」了。

OpenAI o1强推理能提升安全性?长对话诱导干翻o1

除了「Ted Kaczynski」,和炸弹相关的人和物还有很多,这些都可以被用作攻击线索,坏人可以把有害意图隐藏在对相关的人和物的无害提问中来完成攻击。为了全面且高效地去挖掘这些攻击线索,研究人员设计了多轮攻击算法 ActorAttack。受拉图尔的行动者网络理论启发,研究人员构建了一个概念网络,每个节点代表了不同类别的攻击线索。研究人员进一步提出利用大模型的先验知识来初始化网络,以自动化地发现攻击线索。在危险问题评测集 Harmbench 上的实验结果表明,ActorAttack 在 Llama、Claude、GPT 等大模型上都取得了 80% 左右的攻击成功率。

最后,研究人员基于 ActorAttack 开源了第一个多轮对话安全对齐数据集。使用多轮对话数据集微调的 AI,极大提升了其应对多轮攻击的鲁棒性。

社科理论启发的安全视角

ActorAttack 的核心思想是受拉图尔的「行动者 - 网络理论」启发的。研究人员认为,有害事物并非孤立存在,它们背后隐藏着一个巨大的网络结构,技术、人、文化等都是这个复杂网络中的节点(行动者),对有害事物产生影响。这些节点是潜在的攻击线索,研究人员通过将有害意图隐藏在对网络节点的「无害」询问中,可以逐渐诱导模型越狱。

自动大规模的发现攻击线索

具体来说,ActorAttack 的攻击流程分为「Pre-attack」和「In-attack」两个阶段。在「Pre-attack」阶段,研究人员利用大语言模型的知识构建网络,发掘潜在的攻击线索。在「In-attack」阶段,研究人员基于已发现的攻击线索推测攻击链,并逐步描绘如何一步步误导模型。随后,研究人员按照这一攻击链生成多轮询问,从而实施攻击。

OpenAI o1强推理能提升安全性?长对话诱导干翻o1

为了系统性地挖掘这些攻击线索,研究人员根据节点对有害对象产生影响的方式不同,提出了六类不同的节点(比如例子中的 Ted Kaczynski 在制造炸弹方面属于「执行(Execution)」节点)。每个节点包括人物和非人物(如书籍、媒体新闻、社会活动等)两种类型。研究人员利用大模型的先验知识,自动化地大规模发现网络节点。每个网络节点均可作为攻击线索,从而形成多样化的攻击路径。

OpenAI o1强推理能提升安全性?长对话诱导干翻o1

ActorAttack 实现了更高效和多样的攻击

首先,研究人员选取了五类代表性的单轮攻击方法作为比较基准,在 Harmbench 上的实验结果表明,ActorAttack 相比于单轮攻击方法,实现了最优的攻击成功率。

OpenAI o1强推理能提升安全性?长对话诱导干翻o1

接着,研究人员选择了一个强大的多轮攻击方法 Crescendo 进行比较,为了衡量多样性,研究人员对每个多轮攻击独立运行了三次,计算它们之间的余弦相似度。下图展示了在 GPT-4o 和 Claude-3.5-sonnet 上不同攻击预算下,每个方法的攻击成功率和多样性。研究人员发现ActotAttack 在不同攻击预算下,其高效性和多样性两个指标均优于 baseline 方法。

OpenAI o1强推理能提升安全性?长对话诱导干翻o1

ActorAttack 可以根据不同的节点生成多样的攻击路径,其好处之一是相比于单次攻击,它可以从不同的路径中找到更优路径,生成更高质量的攻击。为了从经验上分析,研究人员采用了不同数量的节点,并记录所有的节点中攻击效果最好的得分。实验结果表明,得分为 5 分(最高分)的攻击比例随着节点数量的增多逐渐增加,验证了 ActorAttack 的优势。

OpenAI o1强推理能提升安全性?长对话诱导干翻o1

ActorAttack 生成的多轮提问可以绕过基于 LLM 的输入检测器。为了验证 ActorAttack 隐藏有害意图的有效性,研究人员利用 Llama Guard 2 分类由单轮提问、ActorAttack 生成的多轮提问,以及 Crescendo 生成的多轮提问是否安全。Llama Guard 2 会输出提问为不安全的概率。实验结果显示,ActorAttack 生成的多轮提问的毒性比直接提问和 Cresendo 的多轮提问更低,揭示了其攻击的隐蔽性。

OpenAI o1强推理能提升安全性?长对话诱导干翻o1

第一个多轮对话场景下的安全对齐数据集

为了缓解 AI 大模型在多轮对话场景下的安全风险,研究人员基于 ActorAttack 构造了第一个多轮对话安全对齐数据集。一个关键问题是决定在多轮对话中插入拒绝回复的位置。正如文中开头展示的例子那样,ActorAttack 在中间的询问就可以诱导出模型的有害回复,即使没有完全满足用户意图,这样的回复也可能被滥用,因此研究人员提出使用 Judge 模型定位到第一个出现有害回复的提问位置,并插入拒绝回复。

实验结果展示,使用研究人员构造的多轮对话数据集微调 Llama-3-8B-instruct 极大提升了其应对多轮攻击的鲁棒性。研究人员还发现安全和有用性的权衡关系,并表示将缓解这一权衡作为未来工作。

OpenAI o1强推理能提升安全性?长对话诱导干翻o1

展望

本片工作揭示了 AI 大模型在多轮对话场景下面临的安全风险,甚至对有强推理能力的 OpenAI o1 也是如此。如何让 AI 大模型在多轮长对话中也能保持安全意识成为了一个重要问题。研究人员基于 ActorAttack,构造出了高质量的多轮对话安全对齐数据,大幅提升了 AI 模型应对多轮攻击的鲁棒性,为提升人机交互的安全可信迈出了坚实的一步。

以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。

快照生成时间:2024-11-08 12:45:03

本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。

信息原文地址:

大模型集体失控!南洋理工新型攻击,主流AI无一幸免
...了”。为了避免这种情况出现,在发展AI的同时也确保其安全性是必要的。 其次,大模型和安全的发展,本就是相辅相成的:换言之,大模型发展中的安全机制其实可以通过“攻击”研究来完
2023-11-08 09:09:00
暂缓大模型:担忧的科学家,失控的AI | Future
...模型的输出不涉及一些敏感的东西。在训练过程中,目前安全性在指令学习(Learning from Natural Instructions)的过程中也已经被纳入考量范围
2023-04-18 10:08:00
什么影响大模型安全?NeurIPS\'24新研究提出大模型越狱攻击新基准
...展,尤其是大语言模型(LLMs)的广泛应用,保障模型的安全性并防止其被恶意利用,已成为一个重要的议题。越狱攻击通过恶意指令诱导模型生成有害或不道德的内容,对模型的安全性和可靠
2024-11-01 09:29:00
OpenAI发布免费新品GPT-4o:可对音频、视觉和文本实时推理,与人自然对话,功能秒杀Siri
...练后改进模型行为等技术,GPT-4o在设计中内置了跨模式的安全性,并创建了新的安全系统,为语音输出提供护栏。GPT-4o还与来自社会心理学、偏见和公平、错误信息等领域的70多
2024-05-14 16:45:00
...整体的安全问题,AI专家则更偏向思考具体模型和算法的安全性。但现在,大模型的出现诱导出一些大模型系统特有的数据安全和系统漏洞问题,这促使安全专家和AI专家协同起来,一起解决大
2023-07-10 09:54:00
解构AI安全产业链条、解决方案和创业机遇
...端到端的人工智能安全和信任平台”,用来验证人工智能安全性并监测对抗性威胁。在国内,清华大学在计算机科学与技术系的CoAI在五月初推出了一套安全评测框架,他们总结设计了一个较为
2023-06-06 11:00:00
...面临着三方面挑战。邬贺铨指出,第一,金融行业对数据安全性、隐私合规性都有着严格的要求。尤其是在风控方面,对时效性与精准性要求严格,而一般的基础大模型透明性、可信性、专业性不足
2023-10-18 15:53:00
清华领衔发布多模态评估MultiTrust:GPT-4可信度有几何?
...ust提炼出了五个可信评价维度——事实性(Truthfulness)、安全性(Safety)、鲁棒性(Robustness)
2024-07-25 09:31:00
李彦宏:AI原生应用比大模型数量更重要
...的升级。”李彦宏强调,“在数据质量、生成效果和内容安全性上,都得到了明显提升。”李彦宏认为,以大模型为关键驱动的数字经济,与实体经济深度融合,将做强做优做大实体经济。汽车制造
2023-06-26 19:20:00
更多关于科技的资讯:
3月27日,淳安首家上市企业康盛股份旗下浙江云创智达科技有限公司智能冷板产线正式开工。这一项目的落地,既是康盛股份深耕液冷赛道的重要成果
2026-03-30 08:02:00
商报讯 随着健康消费需求的持续升级,电解质饮料市场迎来新一轮产品创新热潮。近日,蒙牛、李子园、名仁、轻上等品牌推出添加钙元素
2026-03-30 08:03:00
数字化已成为国家制造业竞争力的核心赛道。作为国家老工业基地,太原正以数字化转型为关键抓手,推动制造业从“传统重工”向“高端智造”跨越
2026-03-30 06:51:00
上周五,杭州东站西广场人头攒动,一场别开生面的“市集”吸引了众多旅客与年轻创客的目光。上城区2026年精准服务计划——“上选・青云志”创业市集在此启幕
2026-03-30 07:01:00
近日,“未来已来·AI开启短剧新纪元”第三届短剧生态大会在杭州举办。本次大会由短剧自习室、杭州中国国际动漫节会展有限公司联合主办
2026-03-30 07:01:00
春风催热户外经济,浙江户外用品出口迎来“开门红”。今年以来,露营、骑行、徒步等户外活动在全球持续升温,带动帐篷、轻量化炉具等装备海外需求激增
2026-03-30 07:01:00
3月18日,阿里云发布公告称,因全球AI需求爆发、供应链涨价,阿里云决定上调平头哥真武810E等算力卡产品价格上涨5%—34%
2026-03-30 07:02:00
日前,在宁波舟山港梅山港区空箱查验场地上,一只身形矫健的机器狗自如穿梭于集装箱之间。它时而驻足端详箱体,时而灵巧钻入箱内探查
2026-03-30 07:32:00
29日,“青科杯”数智海洋专项赛在舟山收官。8个创新成果现场签约,成功牵手舟山当地政府与企业,实现了从实验室到产业链的关键一跃
2026-03-30 07:32:00
3月27日,科大讯飞信创AIPC华东制造基地(金华)投产暨首机下线仪式在浙江婺城经济开发区临江智能智造数字科创园举行。本次量产下线的讯飞星火AIPC“燎原”系列首机
2026-03-30 07:32:00
崔路巍摘要:随着旅游业信息化程度的不断提高,游客在旅游活动中的行为数据逐渐被系统记录,如消费记录、停留时间以及景点访问路径等
2026-03-30 06:56:00
江南时报讯 近日,盱眙农商银行分批次在总行辅楼第一会议室召开“精准赋能强本领 财富转型促发展”财富管理专题培训,各支行
2026-03-29 20:36:00
中国玩具和婴童用品协会日前发布的《2026年中国玩具和婴童用品行业发展白皮书》显示,2025年,玩具(不含潮玩)国内市场零售总额为1035
2026-03-29 21:36:00
黄石市4家企业入选2026年省级数字化转型服务商名单
荆楚网(湖北日报网)讯(记者 吕鉴蕾 通讯员 方周强)近日,省经信厅办公室公布2026年湖北省数字化转型服务商(云服务商)名单
2026-03-29 22:34:00
唯一指定!伊利奶酪在博鳌“赢麻了”
鲁网3月29日讯2026年3月27日,博鳌亚洲论坛年会圆满落幕。这场以“塑造共同未来:新形势、新机遇、新合作”为主题的盛会
2026-03-29 17:11:00