• 我的订阅
  • 科技

AI大模型,进入攻防阶段

类别:科技 发布时间:2023-11-06 16:53:00 来源:雷科技

AI大模型的本质,就是用大量的数据进行训练,使其能够了解并掌握各种数据,你所看到的文字回答、图画、视频、音乐,其实都是由一个个数据子集根据模型算法所构造的结果。

实际上,我们的大脑在回答问题时,也是类似的方式,只不过我们有着更强大的模糊运算能力,甚至可以跳出原有知识的束缚,从一个新的角度对问题进行解析,换言之就是无中生有。

但是,我们也往往会因为一些错误的认知、失真的记忆等因素,而得出一些完全错误或是与真相背道而驰的答案,那么AI呢?他们同样如此,甚至当他们的数据库中出现污染时,他们会“信誓旦旦”地给出完全错误的回答,并且认为这就是正确的。

AI大模型,进入攻防阶段

图源:veer

随着AI大模型的数据版权问题愈演愈烈,如今网上正在涌现出不少针对AI大模型设置的陷阱,他们的做法是通过插入特殊数据,破坏AI的数据库,使其产生完全错误的回答。最终迫使开发者回滚相关数据版本,并主动避开产生错误数据的网站,以达到保护自身数据版权不受侵害的目的。

对于这种行为,有个十分贴切的形容——毒丸。

毒丸的危害有多大?

关注AI大模型领域的朋友,应该都还记得前段时间,国内某科技公司的市值一天内蒸发上百亿,而造成这个后果的原因就是该企业的AI大模型遭到污染,进而让AI生成了一篇有违主流价值观的文章,该文章被一位家长发现后发到了网上,引起了广泛关注。

值得注意的是,也有声音称文章并非由AI生成,而是AI在抓取网络资源时无意将其纳入数据库中,并在后续同步到了应用里,导致该文章得到了曝光。不管是什么原因,一个显而易见的事实都摆在我们面前,AI在分辨事物好坏的能力上,依然有着明显的欠缺。

早在AI大模型受到关注的初期,就有声音发出质疑:“如果我们给AI投喂一些有害的数据,是否就可以让AI成为一个坏人?”,答案无疑是肯定的。有人将AI部署到匿名网络论坛4chan中,学习论坛中各个用户之间的交流,在一段时间的训练后,开发者获得了一个“五毒俱全”的AI,它支持纳粹、支持种族歧视、支持种族清洗,并且擅长用各种恶毒的语言辱骂对话者。

这个结果甚至让开发者都感到震惊,同时也说明如果对AI的训练数据不加以甄别,就会导致AI的认知及回答都出现严重的错误。所以,主流AI大模型都会加入了多重纠错和屏蔽措施,避免数据库遭受有害信息的污染。

但是,相较于比较容易甄别及防范的文字数据,绘画等数据的“毒丸”则更加隐蔽且高效。此前,有黑客团队就为此专门开发了一套“投毒”工具,这套工具可以在看似正常的画作中加入特殊的特征码,使得AI将其误认为是另一个数据子集的作品,然后通过重复地污染数据池,来达到彻底破坏AI认知的目的。

AI大模型,进入攻防阶段

图源:technologyreview

被污染的AI在面对画图需求时,就会给出完全错误的回答,比如你让AI画一只狗,在短暂等待后,出现在你面前的却是一只猫或者一头牛,或者其他随便什么东西,反正摆在你面前的肯定不是“一条狗”。

AI大模型,进入攻防阶段

图源:technologyreview

随着污染数据的增多,AI生成的图画也会越发抽象,到最后变成一堆无意义的线条时,这个AI的数据库基本上就算是玩完了,想要让他恢复正常,只能选择版本回归,让其回到出现问题之前的状态。

AI大模型,进入攻防阶段

图源:veer

但是,如何确定数据污染时间点也是一项费时费力的工作,而且会直接让这段时间的训练数据打水漂,增加训练成本又降低训练效率,画师们正是通过这种方式来保护自己的版权不受侵害,并逼迫AI公司主动绕开挂上了禁止抓取标识的作品。

如果说毒丸只用在备注了禁止抓取的画作上,那么这只能算是一次版权纠纷,而且多数网友或许也会选择站在画师一边。但是,开发者很快就发现有大量并未标识禁止抓取的作品也内置了毒丸,并且开始持续性地污染AI数据库,想要从浩瀚的训练数据中找出毒丸,难度却极大,可以说直接影响了AI绘画模型的训练速度。

如何防范毒丸的污染,已经成为各个AI大模型需要慎重对待的问题。

AI攻防战

如何避免AI被污染?对此,开发者想了很多办法, 比如加入更严苛的数据审核制度,宁愿降低训练效率也要将疑似有问题的数据剔除出去。但是,这个方法的效果并不算好,随着审核力度加强的还有毒丸的隐蔽性。

通过特殊的算法,黑客团队也在不停地迭代更新投毒工具,让毒丸可以被尽可能地伪装成正常数据,进而骗过AI的安全机制,进入到核心数据区。或许10个毒丸只有1个可以安全过关,但是毒丸的生成速度极快,而摧毁一个数据库所需要的毒丸数量,其实只需几十个,一旦毒丸数量达到数百个,那么AI对某个事物的认知就会完全带歪。

此外,AI的学习能力也可以成为对抗毒丸的手段之一,将伪装后的毒丸进行数据标识,然后反复投喂给AI,让AI认识到带有此类特征的数据都是“有毒”的,进而让AI能够举一反三,从浩瀚的数据中分辨出有害数据。

AI大模型,进入攻防阶段

图源:veer

当然,有些隐蔽的非公开投毒工具就无法使用这种方法进行对抗,此时就需要开发者进行定期的安全审查,核实并清除恶意数据,同时根据恶意数据的特征提高模型对恶意数据的应对能力。

不过这些方法都不够高效,需要开发者时刻关注并更新模型,那么是否有别的办法能够更好地解决这个问题呢?当然是有的,只不过需要付出更多的精力和成本,比如AI融合模型。

简单来说,就是将多个AI模型融合成一个模型矩阵,在输出数据前各个模型间先交换一轮数据,对输出内容进行审核,在交叉认证确认数据无误后再进行输出,考虑到一次性多个AI都被污染的概率很低,这种方法的效果和效率也是最高的。

但是,多个AI模型的混合十分考虑开发者的技术,会显著增加系统的复杂度和计算成本,对于许多尚未盈利的AI团队或是中小型开发团队而言,有点难以承担。所以这种方法大多被用在大型企业的AI模型矩阵中,为了确保输出数据的正确性(至少看起来不能有明显错误),这点成本可以说不值一提。

可以说,如今的AI模型训练已经不再是简单地比拼数据规模和算法架构,纠错及抗干扰能力也成为一个重要指标。随着AI大模型的应用越发广泛且用户群体日益壮大,如何保证AI在回答问题时不出错已经成为关键,考虑到如今草木皆兵,神经高度敏感的投资市场风气,一个小失误就损失百亿并非玩笑。

以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。

快照生成时间:2023-11-06 17:45:08

本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。

信息原文地址:

用大模型守护生态环境“高颜值”
...转自:人民日报海外版北京建成全国首个大气环境监测大模型用大模型守护生态环境“高颜值”潘旭涛 华伊然左图:大气遥感卫星数据接收站。 制图:潘旭涛 右图:北京市大气“三监”联动精
2024-08-30 13:59:00
这才是真开源模型!公开后训练一切,性能超越Llama 3.1 Instruct
开源模型阵营又迎来一员猛将:Tülu 3。它来自艾伦人工智能研究所(Ai2),目前包含 8B 和 70B 两个版本(未来还会有 405B 版本)
2024-11-26 09:44:00
...研人员,开发出一款名为PPN的时空深度学习大气环境预报模型,用于预报区域PM浓度的时空分布。该模型能够为区域和城市污染防控及快速预警提供支持,在算力资源充足的情况下,还可以进
2023-07-25 16:55:00
多模态模型评测框架lmms-eval发布!全面覆盖,低成本,零污染
...稿邮箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com随着大模型研究的深入
2024-08-22 09:50:00
2023世界人工智能大会期间,有人直言,没有大算力做大模型就是天方夜谭。但也有人认为,数据要素在人工智能大模型的发展中具有关键性作用,决定了模型的训练质量、性能表现和应用领域的广
2023-07-09 23:49:00
谷歌发布 FACTS Grounding 基准,AI 大语言模型“幻觉照妖镜”
...布博文,宣布推出 FACTS Grounding 基准测试,评估大型语言模型(LLMs)根据给定材料是否准确作答,并避免“幻觉”(即捏造信息)的能力
2024-12-19 09:32:00
科学研究范式已经变革!专家对科学引领智能变革这样说|世界顶尖科学家论坛
...发展历程,从通过实验描述自然现象的实验范式,到通过模型或归纳进行研究的理论范式,到应用计算机仿真模拟解决学科问题的计算范式,发展到通过大数据分析研究事物内在关系的数据范式,随
2023-11-08 17:05:00
Nature封面:AI训AI 越训越傻
...等学校机构的研究人员最新发现,使用合成数据训练,大模型可能会崩溃。其研究成果被选为最新的Nature封面。直接一个:GARBAGE OUT!要知道,现在绝大部分科技公司的大模
2024-07-28 07:29:00
从模型层面保护AI的安全,AWS背景的连续创业者获3500万美元融资
阿尔法公社:目前中国的生成式AI已经完成了基础大模型的积累阶段(各大厂和头部创业公司都已有大模型),下一步将进入AI的大规模应用阶段。但是AI的安全问题不解决,无论是终端用户,还
2023-09-14 11:34:00
更多关于科技的资讯: