• 我的订阅
  • 科技

OpenAI o1强推理能提升安全性?长对话诱导干翻o1

类别:科技 发布时间:2024-11-08 09:46:00 来源:机器之心Pro

OpenAI o1强推理能提升安全性?长对话诱导干翻o1

最近,以 OpenAI o1 为代表的 AI 大模型的推理能力得到了极大提升,在代码、数学的评估上取得了令人惊讶的效果。OpenAI 声称,推理可以让模型更好的遵守安全政策,是提升模型安全的新路径。

然而,推理能力的提升真的能解决安全问题吗?推理能力越强,模型的安全性会越好吗?近日,上海交大和上海人工智能实验室的一篇论文提出了质疑。

这篇题为《Derail Yourself: Multi-turn LLM Attack through Self-discovered Clues》的论文揭示了AI 大模型在多轮对话场景下的安全风险,并开源了第一个多轮安全对齐数据集。

论文地址:https://arxiv.org/abs/2410.10700 多轮安全对齐数据:https://huggingface.co/datasets/SafeMTData/SafeMTData 代码开源:https://github.com/renqibing/ActorAttack

这项研究是怎么得到上述结论的呢?我们先来看一个例子。

假设一个坏人想要询问「如何制作炸弹」,直接询问会得到 AI 的拒绝回答。然而,如果选择从一个人物的生平问起(比如 Ted Kaczynski,他是一个制作炸弹的恐怖分子),AI 会主动提及他制作炸弹的经历。在接下来的问题里,用户诱导 AI 根据其之前的回答提供更多制作炸弹的细节。尽管所有的问题都没有暴露用户的有害意图,用户最终还是获得了制作炸弹的知识。

OpenAI o1强推理能提升安全性?长对话诱导干翻o1

当详细查看 OpenAI o1 的「想法」时,研究人员惊奇地发现,o1 在开始的推理中确实识别到了用户的有害意图,并且声称要遵守安全政策。但是在随后的推理中,o1 开始暴露了它的「危险想法」!它在想法中列举了 Kaczynski 使用的策略和方法。最后 o1 在回答中详细给出了制作炸弹的步骤,甚至教你如何增加爆炸物的威力!研究人员的方法在 Harmbench 上对 o1 的攻击成功率达到了 60%,推理能力带来的安全提升在多轮攻击面前「失效」了。

OpenAI o1强推理能提升安全性?长对话诱导干翻o1

除了「Ted Kaczynski」,和炸弹相关的人和物还有很多,这些都可以被用作攻击线索,坏人可以把有害意图隐藏在对相关的人和物的无害提问中来完成攻击。为了全面且高效地去挖掘这些攻击线索,研究人员设计了多轮攻击算法 ActorAttack。受拉图尔的行动者网络理论启发,研究人员构建了一个概念网络,每个节点代表了不同类别的攻击线索。研究人员进一步提出利用大模型的先验知识来初始化网络,以自动化地发现攻击线索。在危险问题评测集 Harmbench 上的实验结果表明,ActorAttack 在 Llama、Claude、GPT 等大模型上都取得了 80% 左右的攻击成功率。

最后,研究人员基于 ActorAttack 开源了第一个多轮对话安全对齐数据集。使用多轮对话数据集微调的 AI,极大提升了其应对多轮攻击的鲁棒性。

社科理论启发的安全视角

ActorAttack 的核心思想是受拉图尔的「行动者 - 网络理论」启发的。研究人员认为,有害事物并非孤立存在,它们背后隐藏着一个巨大的网络结构,技术、人、文化等都是这个复杂网络中的节点(行动者),对有害事物产生影响。这些节点是潜在的攻击线索,研究人员通过将有害意图隐藏在对网络节点的「无害」询问中,可以逐渐诱导模型越狱。

自动大规模的发现攻击线索

具体来说,ActorAttack 的攻击流程分为「Pre-attack」和「In-attack」两个阶段。在「Pre-attack」阶段,研究人员利用大语言模型的知识构建网络,发掘潜在的攻击线索。在「In-attack」阶段,研究人员基于已发现的攻击线索推测攻击链,并逐步描绘如何一步步误导模型。随后,研究人员按照这一攻击链生成多轮询问,从而实施攻击。

OpenAI o1强推理能提升安全性?长对话诱导干翻o1

为了系统性地挖掘这些攻击线索,研究人员根据节点对有害对象产生影响的方式不同,提出了六类不同的节点(比如例子中的 Ted Kaczynski 在制造炸弹方面属于「执行(Execution)」节点)。每个节点包括人物和非人物(如书籍、媒体新闻、社会活动等)两种类型。研究人员利用大模型的先验知识,自动化地大规模发现网络节点。每个网络节点均可作为攻击线索,从而形成多样化的攻击路径。

OpenAI o1强推理能提升安全性?长对话诱导干翻o1

ActorAttack 实现了更高效和多样的攻击

首先,研究人员选取了五类代表性的单轮攻击方法作为比较基准,在 Harmbench 上的实验结果表明,ActorAttack 相比于单轮攻击方法,实现了最优的攻击成功率。

OpenAI o1强推理能提升安全性?长对话诱导干翻o1

接着,研究人员选择了一个强大的多轮攻击方法 Crescendo 进行比较,为了衡量多样性,研究人员对每个多轮攻击独立运行了三次,计算它们之间的余弦相似度。下图展示了在 GPT-4o 和 Claude-3.5-sonnet 上不同攻击预算下,每个方法的攻击成功率和多样性。研究人员发现ActotAttack 在不同攻击预算下,其高效性和多样性两个指标均优于 baseline 方法。

OpenAI o1强推理能提升安全性?长对话诱导干翻o1

ActorAttack 可以根据不同的节点生成多样的攻击路径,其好处之一是相比于单次攻击,它可以从不同的路径中找到更优路径,生成更高质量的攻击。为了从经验上分析,研究人员采用了不同数量的节点,并记录所有的节点中攻击效果最好的得分。实验结果表明,得分为 5 分(最高分)的攻击比例随着节点数量的增多逐渐增加,验证了 ActorAttack 的优势。

OpenAI o1强推理能提升安全性?长对话诱导干翻o1

ActorAttack 生成的多轮提问可以绕过基于 LLM 的输入检测器。为了验证 ActorAttack 隐藏有害意图的有效性,研究人员利用 Llama Guard 2 分类由单轮提问、ActorAttack 生成的多轮提问,以及 Crescendo 生成的多轮提问是否安全。Llama Guard 2 会输出提问为不安全的概率。实验结果显示,ActorAttack 生成的多轮提问的毒性比直接提问和 Cresendo 的多轮提问更低,揭示了其攻击的隐蔽性。

OpenAI o1强推理能提升安全性?长对话诱导干翻o1

第一个多轮对话场景下的安全对齐数据集

为了缓解 AI 大模型在多轮对话场景下的安全风险,研究人员基于 ActorAttack 构造了第一个多轮对话安全对齐数据集。一个关键问题是决定在多轮对话中插入拒绝回复的位置。正如文中开头展示的例子那样,ActorAttack 在中间的询问就可以诱导出模型的有害回复,即使没有完全满足用户意图,这样的回复也可能被滥用,因此研究人员提出使用 Judge 模型定位到第一个出现有害回复的提问位置,并插入拒绝回复。

实验结果展示,使用研究人员构造的多轮对话数据集微调 Llama-3-8B-instruct 极大提升了其应对多轮攻击的鲁棒性。研究人员还发现安全和有用性的权衡关系,并表示将缓解这一权衡作为未来工作。

OpenAI o1强推理能提升安全性?长对话诱导干翻o1

展望

本片工作揭示了 AI 大模型在多轮对话场景下面临的安全风险,甚至对有强推理能力的 OpenAI o1 也是如此。如何让 AI 大模型在多轮长对话中也能保持安全意识成为了一个重要问题。研究人员基于 ActorAttack,构造出了高质量的多轮对话安全对齐数据,大幅提升了 AI 模型应对多轮攻击的鲁棒性,为提升人机交互的安全可信迈出了坚实的一步。

以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。

快照生成时间:2024-11-08 12:45:03

本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。

信息原文地址:

大模型集体失控!南洋理工新型攻击,主流AI无一幸免
...了”。为了避免这种情况出现,在发展AI的同时也确保其安全性是必要的。 其次,大模型和安全的发展,本就是相辅相成的:换言之,大模型发展中的安全机制其实可以通过“攻击”研究来完
2023-11-08 09:09:00
暂缓大模型:担忧的科学家,失控的AI | Future
...模型的输出不涉及一些敏感的东西。在训练过程中,目前安全性在指令学习(Learning from Natural Instructions)的过程中也已经被纳入考量范围
2023-04-18 10:08:00
什么影响大模型安全?NeurIPS\'24新研究提出大模型越狱攻击新基准
...展,尤其是大语言模型(LLMs)的广泛应用,保障模型的安全性并防止其被恶意利用,已成为一个重要的议题。越狱攻击通过恶意指令诱导模型生成有害或不道德的内容,对模型的安全性和可靠
2024-11-01 09:29:00
OpenAI发布免费新品GPT-4o:可对音频、视觉和文本实时推理,与人自然对话,功能秒杀Siri
...练后改进模型行为等技术,GPT-4o在设计中内置了跨模式的安全性,并创建了新的安全系统,为语音输出提供护栏。GPT-4o还与来自社会心理学、偏见和公平、错误信息等领域的70多
2024-05-14 16:45:00
...整体的安全问题,AI专家则更偏向思考具体模型和算法的安全性。但现在,大模型的出现诱导出一些大模型系统特有的数据安全和系统漏洞问题,这促使安全专家和AI专家协同起来,一起解决大
2023-07-10 09:54:00
解构AI安全产业链条、解决方案和创业机遇
...端到端的人工智能安全和信任平台”,用来验证人工智能安全性并监测对抗性威胁。在国内,清华大学在计算机科学与技术系的CoAI在五月初推出了一套安全评测框架,他们总结设计了一个较为
2023-06-06 11:00:00
...面临着三方面挑战。邬贺铨指出,第一,金融行业对数据安全性、隐私合规性都有着严格的要求。尤其是在风控方面,对时效性与精准性要求严格,而一般的基础大模型透明性、可信性、专业性不足
2023-10-18 15:53:00
清华领衔发布多模态评估MultiTrust:GPT-4可信度有几何?
...ust提炼出了五个可信评价维度——事实性(Truthfulness)、安全性(Safety)、鲁棒性(Robustness)
2024-07-25 09:31:00
李彦宏:AI原生应用比大模型数量更重要
...的升级。”李彦宏强调,“在数据质量、生成效果和内容安全性上,都得到了明显提升。”李彦宏认为,以大模型为关键驱动的数字经济,与实体经济深度融合,将做强做优做大实体经济。汽车制造
2023-06-26 19:20:00
更多关于科技的资讯:
春晚机器人表演带火租赁市场 厦门景区商超一机难求
东南网3月7日讯(海峡导报记者 孙春燕/文 陆军航/图)马年央视春晚,人形机器人的“赛博表演”惊艳全球,也带火了线下租赁市场
2026-03-07 14:21:00
【读图】回眸十四五,最感人至深的是…… 扫码阅读手机版
2026全国两会(策划 郁建锋、王聪 文案 董琳晶 设计 贾静、杜珊、张晓钰)
2026-03-07 14:56:00
大河网讯 一束微光照亮“智造”星系,璀璨的电子信息产业在郑州航空港拔节生长。在这里,产业星光汇聚成河,超千亿级集群汇聚了从芯片研发到整机组装的产业链
2026-03-07 16:14:00
全国人大代表刘庆峰:未来AI硬件会走进千家万户
大皖新闻讯 2026年是“十五五”开局之年,也是人工智能深度赋能千行百业的关键一年。正在召开的2026年全国两会上,人工智能毫无意外地成为代表委员们热议的高频词
2026-03-07 16:48:00
视频摄制:冯阳 霍艳恩 赵新宇 王思宁
2026-03-07 10:02:00
中国青年医师IP孵化计划在杭州启动
2026年3月5日,以“AI链全球 生态共生”为主题的中国青年医师IP孵化计划在杭州启动。本次活动来自全国多所医院的专家
2026-03-07 10:40:00
租金两块钱一分钟 “共享机器人”即将入驻杭州商场、电影院
星枢智能的“机器人家族” 记者 杨亦淇 摄一台售价20多万元的春晚同款人形机器人,现在花5000元就能租一天;如果是基础款
2026-03-07 08:05:00
摘要:随着信息技术的快速发展,人工智能技术逐渐渗透金融机构的各类业务与管理环节,对传统金融运作模式产生了深刻影响。金融机构在激烈竞争和成本约束的背景下
2026-03-07 05:46:00
近日,省应急管理厅举行“AI+工业企业火情预警(火眼哨兵)”“AI+烟花爆竹监管(烟花卫士)”应用上线发布仪式。浙江拥有30余万家工业企业
2026-03-07 07:34:00
视频摄制:张晶、赵新宇、朱泊宇
2026-03-07 07:47:00
今年的全国两会上,“一人公司”(One Person Company,简称OPC)成为代表委员们热议的话题。全国人大代表
2026-03-07 07:04:00
2026年全国两会正式开幕,全国政协委员、京东集团技术委员会主席、京东云总裁曹鹏围绕人工智能产业发展建言献策。他建议,推动我国AI产业实现从规模扩张到效能提升
2026-03-06 22:56:00
编者按:从生力军天创机器人开始,《大众证券报》明镜财经工作室记者将陆续探访在各种应用场景解决着实际问题的南京机器人企业
2026-03-06 22:56:00
从平台赋能到标杆涌现:青岛崂山区打造OPC创业首选地
鲁网3月6日讯2026年,是“一人公司”(OPC)从概念走向规模化实践的关键之年。当这一新型创业范式成为科创发展新风口
2026-03-06 20:12:00
【宅男财经|专家面对面】据央视新闻报道,十四届全国人大四次会议今天(6日)举行经济主题记者会。商务部部长王文涛在会上表示
2026-03-06 21:54:00