• 我的订阅
  • 科技

注意!大模型工具Ollama存安全风险

类别:科技 发布时间:2025-03-03 21:59:00 来源:中新经纬

中新经纬3月3日电 3日,国家网络与信息安全信息通报中心在官方微信公众号发布情况通报称,大模型工具Ollama存在安全风险。

通报称,据清华大学网络空间测绘联合研究中心分析,开源跨平台大模型工具Ollama默认配置存在未授权访问与模型窃取等安全隐患。鉴于目前DeepSeek等大模型的研究部署和应用非常广泛,多数用户使用Ollama私有化部署且未修改默认配置,存在数据泄露、算力盗取、服务中断等安全风险,极易引发网络和数据安全事件。

具体来看,通报称,使用Ollma在本地部署DeepSeek等大模型时,会在本地启动一个Web服务,并默认开放11434端口且无任何鉴权机制。该服务直接暴露在公网环境,存在三方面风险。

一是未授权访问:未授权用户能够随意访问模型,并利用特定工具直接对模型及其数据进行操作,攻击者无需认证即可调用模型服务、获取模型信息,甚至通过恶意指令删除模型文件或窃取数据。

二是数据泄露:通过特定接口可访问并提取模型数据,引发数据泄露风险。如:通过/api/show接口,攻击者能够获取模型的license等敏感信息,以及其他接口获取已部署模型的相关敏感数据信息。

三是攻击者可利用Ollama框架历史漏洞(CVE-2024-39720/39722/39719/39721),直接调用模型接口实施数据投毒、参数窃取、恶意文件上传及关键组件删除等操作,造成模型服务的核心数据、算法完整性和运行稳定性面临安全风险。

通报给出五点安全加固建议。

一是限制Ollama监听范围:仅允许11434端口本地访问,并验证端口状态。

二是配置防火墙规则:对公网接口实施双向端口过滤,阻断11434端口的出入站流量。

三是实施多层认证与访问控制:启用API密钥管理,定期更换密钥并限制调用频率。部署IP白名单或零信任架构,仅授权可信设备访问。

四是禁用危险操作接口:如push/delete/pull等,并限制chat接口的调用频率以防DDoS攻击。

五是历史漏洞修复:及时更新Ollama至安全版本,修复已知安全漏洞。

通报提到,目前,已有大量存在此类安全隐患的服务器暴露在互联网上。建议广大用户加强隐患排查,及时进行安全加固,发现遭网络攻击情况第一时间向当地公安网安部门报告,配合公安网安部门开展调查处置工作。

国家网络与信息安全信息通报中心将进一步加强监测并适时发布后续通报。

另据公开信息介绍,Ollama是一款可以方便获取并运行大模型的工具,支持Qwen、Llama、DeepSeek-R1等多种先进的语言模型,可以让用户在服务器中运行使用这些模型。有安全专家分析,Ollama在默认情况下并未提供安全认证功能,这导致许多部署DeepSeek的用户忽略了必要的安全限制,未对服务设置访问控制。(中新经纬APP)

来源:中新经纬

编辑:万可义

广告等商务合作,请点击这里

未经过正式授权严禁转载本文,侵权必究

以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。

快照生成时间:2025-03-04 05:45:05

本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。

信息原文地址:

正式发布|绿盟AI大模型风险评估工具
在人工智能技术的黄金时代,AI大模型已经成为众多企业发展的重要动力。然而,随着AI大模型应用的深入,与之相关的风险也日益显现,引发众多安全事件,进而可能损害用户体验和企业信誉,还
2024-05-11 10:00:00
AI技术为安全治理提供“新工具箱”
...置等都更好更精准。”AI安全风险主要分三类2023年,AI大模型安全风险凸显。AI技术在带来强有力的新工具的同时,也带来数据隐私、技术滥用、失控等安全问题。“加强对AI这一新
2024-01-26 01:46:00
堵漏洞,助力AI发展安全驶入快车道 以大模型为核心的人工智能技术是创新范式变革与产业升级的关键引擎,越来越多的机关、企事业单位开始推进大模型私有化部署,广泛应用于企业办公、科技研
2025-03-27 07:06:00
清华领衔发布多模态评估MultiTrust:GPT-4可信度有几何?
...专利产学研转化落地应用。以GPT-4o为代表的多模态大语言模型(MLLMs)因其在语言、图像等多种模态上的卓越表现而备受瞩目。它们不仅在日常工作中成为用户的得力助手,还逐渐渗
2024-07-25 09:31:00
如何识别AI安全风险?中国工程院院士邬江兴:尽量避免使用单一模型,要交叉验证
...式来展示数据分类分级的过程,以及在传输中如何借助大模型检测潜在的数据泄漏、恶意攻击等威胁。”近一段时间以来,以大模型为代表的AI(人工智能)技术持续火爆,在惊喜于大模型的“聪
2024-05-21 16:09:00
...网络安全风险管理服务机构,研发网络安全保险风险定价模型,助力我国网络安全保险市场高质量发展。该模型应用专业的网络安全风险量化评估工具与方法,采集使用十万余全球安全事件数据集和
2024-10-29 10:35:00
从模型层面保护AI的安全,AWS背景的连续创业者获3500万美元融资
阿尔法公社:目前中国的生成式AI已经完成了基础大模型的积累阶段(各大厂和头部创业公司都已有大模型),下一步将进入AI的大规模应用阶段。但是AI的安全问题不解决,无论是终端用户,还
2023-09-14 11:34:00
...转自:文汇报 ■本报记者 孙欣祺OpenAI首个视频生成模型Sora一经发布,便引起全球高度关注。但与此同时
2024-02-24 05:42:00
全面透视豆包:功能、版本、价格、优势、应用
...率与竞争力。一、豆包介绍豆包是字节跳动公司基于云雀模型开发的 AI 工具,提供聊天机器人、写作助手以及英语学习助手等功能,它可以回答各种问题并进行对话,帮助人们获取信息,支持
2024-07-24 14:44:00
更多关于科技的资讯:
2274台!河北省国和投资集团有限公司国庆车展销量刷新同期纪录
图为活动现场。河北新闻网讯(吴建春)国庆黄金周期间,河北省国和投资集团有限公司(简称“国和公司”)成功举办“石家庄国和裕华汽车园省直员工购车盛典”大型车展
2025-10-11 20:06:00
浪潮智慧科技深耕标准建设:3项主导数字山东技术规范成功获批
近日,山东省大数据局正式下发《关于发布〈矿产资源数据治理规范〉等11项数字山东技术规范的公告》,其中由浪潮智慧科技主导编制的《智慧渔业养殖系统建设规范》《数字孪生机场模型构建规范
2025-10-11 10:24:00
长白时评评论员 杨飞近日,陕西西安等地出台政策,全面暂停网约车“一口价”等低价营销行为,严禁任何形式的价格欺诈和恶意压价
2025-10-11 10:47:00
厦门网讯(厦门日报记者 林露虹 通讯员 管轩 雷飏)集护眼、通透、高刷新率于一体的天马 “天工屏”;“全球最窄四等边设计”的手机屏幕……今年以来
2025-10-10 08:28:00
2025河北国际工业设计周活动观察:全球智慧赋能未来智造
全球智慧赋能未来智造——2025河北国际工业设计周活动观察9月20日,2025河北国际工业设计周主会场活动在雄安新区举行
2025-10-10 08:40:00
工信部日前公布首批制造业数字化转型促进中心建设主体名单,太原福莱瑞达物流设备科技有限公司入选。制造业数字化转型促进中心是国家落实产业数字化战略的核心公共服务载体
2025-10-10 08:42:00
10月9日,从太原第二热电厂获悉,为全力保障太原市冬季供热安全稳定,持续提升供热服务质效,太原二热秉持“早谋划、早部署
2025-10-10 08:43:00
齐鲁晚报·齐鲁壹点客户端 李孟霏在刚刚过去的国庆中秋“双节”,山东移动威海乳山分公司移动社区营销团队实现品牌口碑与业务发展的双赢
2025-10-10 11:07:00
优优绿能(301590)成立于2015年,是国内直流充电桩模块领军企业之一,2024年在国内充电模块市占率达16%,位居行业第二
2025-10-10 23:06:00
恒润达生信披“迷雾”:“消失”的研发总监与首席科学家?
除研发核心人员离职或在外创办同行业企业外,上海恒润达生生物科技股份有限公司(下称“恒润达生”)招股书对研发团队人员信披的真实性
2025-10-10 23:06:00
互联网贷款普及后,不少初次接触的用户常因平台选择难、流程不熟悉犯愁。其实只要按步骤操作执行,安全又高效,下面由榕易有钱为大家梳理了几项关键步骤
2025-10-10 11:34:00
从志愿翻译到时装新星 河南姑娘在非洲书写青春与梦想
大河网讯 非洲大陆,机遇与挑战并存。越来越多的中国人选择在这里扎根创业,为当地发展注入新活力。毕业于河南工业大学的何方方便是其中之一
2025-10-10 12:11:00
姜杰秀:心中有梦,创业有方,用执着与努力让喜龙果出海
鲁网10月10日讯“我父亲就是做农副产品加工的,从小受父亲的熏陶,我对农副产品加工就有别样的情愫。于是,我就在农副产品加工上有了梦想
2025-10-10 13:56:00
中新经纬10月10日电 “市说新语”微信号10日消息,近日,国家市场监管总局(国家标准委)批准发布一批重要国家标准,涉及助老扶幼
2025-10-10 14:06:00
解锁工业自动化密码,威图与易盼2025IAS硬核破圈瞬间
"新质驱动、高端引领、数智赋能" ,2025中国国际工业博览会聚焦新工业新经济,旨在拉开加快构建一流产业生态,开启智能制造新时代的帷幕
2025-10-10 14:59:00