• 我的订阅
  • 科技

AI大模型,进入攻防阶段

类别:科技 发布时间:2023-11-06 16:53:00 来源:雷科技

AI大模型的本质,就是用大量的数据进行训练,使其能够了解并掌握各种数据,你所看到的文字回答、图画、视频、音乐,其实都是由一个个数据子集根据模型算法所构造的结果。

实际上,我们的大脑在回答问题时,也是类似的方式,只不过我们有着更强大的模糊运算能力,甚至可以跳出原有知识的束缚,从一个新的角度对问题进行解析,换言之就是无中生有。

但是,我们也往往会因为一些错误的认知、失真的记忆等因素,而得出一些完全错误或是与真相背道而驰的答案,那么AI呢?他们同样如此,甚至当他们的数据库中出现污染时,他们会“信誓旦旦”地给出完全错误的回答,并且认为这就是正确的。

AI大模型,进入攻防阶段

图源:veer

随着AI大模型的数据版权问题愈演愈烈,如今网上正在涌现出不少针对AI大模型设置的陷阱,他们的做法是通过插入特殊数据,破坏AI的数据库,使其产生完全错误的回答。最终迫使开发者回滚相关数据版本,并主动避开产生错误数据的网站,以达到保护自身数据版权不受侵害的目的。

对于这种行为,有个十分贴切的形容——毒丸。

毒丸的危害有多大?

关注AI大模型领域的朋友,应该都还记得前段时间,国内某科技公司的市值一天内蒸发上百亿,而造成这个后果的原因就是该企业的AI大模型遭到污染,进而让AI生成了一篇有违主流价值观的文章,该文章被一位家长发现后发到了网上,引起了广泛关注。

值得注意的是,也有声音称文章并非由AI生成,而是AI在抓取网络资源时无意将其纳入数据库中,并在后续同步到了应用里,导致该文章得到了曝光。不管是什么原因,一个显而易见的事实都摆在我们面前,AI在分辨事物好坏的能力上,依然有着明显的欠缺。

早在AI大模型受到关注的初期,就有声音发出质疑:“如果我们给AI投喂一些有害的数据,是否就可以让AI成为一个坏人?”,答案无疑是肯定的。有人将AI部署到匿名网络论坛4chan中,学习论坛中各个用户之间的交流,在一段时间的训练后,开发者获得了一个“五毒俱全”的AI,它支持纳粹、支持种族歧视、支持种族清洗,并且擅长用各种恶毒的语言辱骂对话者。

这个结果甚至让开发者都感到震惊,同时也说明如果对AI的训练数据不加以甄别,就会导致AI的认知及回答都出现严重的错误。所以,主流AI大模型都会加入了多重纠错和屏蔽措施,避免数据库遭受有害信息的污染。

但是,相较于比较容易甄别及防范的文字数据,绘画等数据的“毒丸”则更加隐蔽且高效。此前,有黑客团队就为此专门开发了一套“投毒”工具,这套工具可以在看似正常的画作中加入特殊的特征码,使得AI将其误认为是另一个数据子集的作品,然后通过重复地污染数据池,来达到彻底破坏AI认知的目的。

AI大模型,进入攻防阶段

图源:technologyreview

被污染的AI在面对画图需求时,就会给出完全错误的回答,比如你让AI画一只狗,在短暂等待后,出现在你面前的却是一只猫或者一头牛,或者其他随便什么东西,反正摆在你面前的肯定不是“一条狗”。

AI大模型,进入攻防阶段

图源:technologyreview

随着污染数据的增多,AI生成的图画也会越发抽象,到最后变成一堆无意义的线条时,这个AI的数据库基本上就算是玩完了,想要让他恢复正常,只能选择版本回归,让其回到出现问题之前的状态。

AI大模型,进入攻防阶段

图源:veer

但是,如何确定数据污染时间点也是一项费时费力的工作,而且会直接让这段时间的训练数据打水漂,增加训练成本又降低训练效率,画师们正是通过这种方式来保护自己的版权不受侵害,并逼迫AI公司主动绕开挂上了禁止抓取标识的作品。

如果说毒丸只用在备注了禁止抓取的画作上,那么这只能算是一次版权纠纷,而且多数网友或许也会选择站在画师一边。但是,开发者很快就发现有大量并未标识禁止抓取的作品也内置了毒丸,并且开始持续性地污染AI数据库,想要从浩瀚的训练数据中找出毒丸,难度却极大,可以说直接影响了AI绘画模型的训练速度。

如何防范毒丸的污染,已经成为各个AI大模型需要慎重对待的问题。

AI攻防战

如何避免AI被污染?对此,开发者想了很多办法, 比如加入更严苛的数据审核制度,宁愿降低训练效率也要将疑似有问题的数据剔除出去。但是,这个方法的效果并不算好,随着审核力度加强的还有毒丸的隐蔽性。

通过特殊的算法,黑客团队也在不停地迭代更新投毒工具,让毒丸可以被尽可能地伪装成正常数据,进而骗过AI的安全机制,进入到核心数据区。或许10个毒丸只有1个可以安全过关,但是毒丸的生成速度极快,而摧毁一个数据库所需要的毒丸数量,其实只需几十个,一旦毒丸数量达到数百个,那么AI对某个事物的认知就会完全带歪。

此外,AI的学习能力也可以成为对抗毒丸的手段之一,将伪装后的毒丸进行数据标识,然后反复投喂给AI,让AI认识到带有此类特征的数据都是“有毒”的,进而让AI能够举一反三,从浩瀚的数据中分辨出有害数据。

AI大模型,进入攻防阶段

图源:veer

当然,有些隐蔽的非公开投毒工具就无法使用这种方法进行对抗,此时就需要开发者进行定期的安全审查,核实并清除恶意数据,同时根据恶意数据的特征提高模型对恶意数据的应对能力。

不过这些方法都不够高效,需要开发者时刻关注并更新模型,那么是否有别的办法能够更好地解决这个问题呢?当然是有的,只不过需要付出更多的精力和成本,比如AI融合模型。

简单来说,就是将多个AI模型融合成一个模型矩阵,在输出数据前各个模型间先交换一轮数据,对输出内容进行审核,在交叉认证确认数据无误后再进行输出,考虑到一次性多个AI都被污染的概率很低,这种方法的效果和效率也是最高的。

但是,多个AI模型的混合十分考虑开发者的技术,会显著增加系统的复杂度和计算成本,对于许多尚未盈利的AI团队或是中小型开发团队而言,有点难以承担。所以这种方法大多被用在大型企业的AI模型矩阵中,为了确保输出数据的正确性(至少看起来不能有明显错误),这点成本可以说不值一提。

可以说,如今的AI模型训练已经不再是简单地比拼数据规模和算法架构,纠错及抗干扰能力也成为一个重要指标。随着AI大模型的应用越发广泛且用户群体日益壮大,如何保证AI在回答问题时不出错已经成为关键,考虑到如今草木皆兵,神经高度敏感的投资市场风气,一个小失误就损失百亿并非玩笑。

以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。

快照生成时间:2023-11-06 17:45:08

本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。

信息原文地址:

...研人员,开发出一款名为PPN的时空深度学习大气环境预报模型,用于预报区域PM浓度的时空分布。该模型能够为区域和城市污染防控及快速预警提供支持,在算力资源充足的情况下,还可以进
2023-07-25 16:55:00
2023世界人工智能大会期间,有人直言,没有大算力做大模型就是天方夜谭。但也有人认为,数据要素在人工智能大模型的发展中具有关键性作用,决定了模型的训练质量、性能表现和应用领域的广
2023-07-09 23:49:00
科学研究范式已经变革!专家对科学引领智能变革这样说|世界顶尖科学家论坛
...发展历程,从通过实验描述自然现象的实验范式,到通过模型或归纳进行研究的理论范式,到应用计算机仿真模拟解决学科问题的计算范式,发展到通过大数据分析研究事物内在关系的数据范式,随
2023-11-08 17:05:00
从模型层面保护AI的安全,AWS背景的连续创业者获3500万美元融资
阿尔法公社:目前中国的生成式AI已经完成了基础大模型的积累阶段(各大厂和头部创业公司都已有大模型),下一步将进入AI的大规模应用阶段。但是AI的安全问题不解决,无论是终端用户,还
2023-09-14 11:34:00
发展新质生产力 | 贵州企业数据资产入表实现“零”突破
...——贵州勘设生态环境科技有限公司自主研发的环保类AI模型,“污水厂仿真AI模型运行数据集、供水厂仿真AI模型运行数据集”作为数据资产入表,并在贵阳大数据交易所挂牌上市,成为贵
2024-03-14 21:48:00
解构AI安全产业链条、解决方案和创业机遇
图片来源@视觉中国文 | 自象限划重点:1、AI大模型的安全问题从来不是某一个单独的问题,它就像人的健康管理一样,是一个复杂的、体系化的,涉及多个主体和整个产业链的系统工程。2、
2023-06-06 11:00:00
...科技企业或科研机构面向公众正式开放自研的人工智能大模型,标志着国内大模型从小范围内测开始走向大规模应用。大模型将如何为个人和产业赋能?这轮开放服务将为行业竞争带来什么影响?国
2023-10-17 07:35:00
chatGPT 和AlphaGo下围棋,谁赢?垂域大模型有戏么?
图片来源@视觉中国文 | 李智勇上一篇提到最终大模型的格局很可能是有一个偏通用大模型,比如chatGPT,它会颠覆现有信息集散的基本格局,同时还会有很多面对垂域的大模型,每一个都
2023-07-13 19:00:00
早期项目丨推出芯片级多方安全计算方案,「紫先科技」将为大模型数据安全提供基础设施
作者丨邱晓芬编辑丨苏建勋随着AI大模型的兴起,大模型的安全合规问题频发,逐渐引起了各国政府和行业各界对其数据安全的关注。在意大利,由于有用户声称在ChatGPT的历史对话中看到了
2023-05-23 09:36:00
更多关于科技的资讯: