大树吸引了风,Deepseek的杰出人物引起了人们的更多关注。虽然更多的资本注入,但DeepSeek也遭受了更多的攻击。但是,这不是第一个遭受大规模网络攻击的大型模型公司。以前,诸如Kimi和Openai之类的家庭著名模型公司也遭受了不同程度的网络攻击。
大型模型被攻击为常见
由DeepSeek引起的严重网络攻击并不是大型模型行业的个人情况。在过去的几年中,许多大型模型已成为黑人和灰色行业攻击的目标。
2023年11月,Chatgpt遭到黑客组织DDO的袭击,发生了许多严重的业务中断,甚至大规模瘫痪。 2024年9月20日,Mirai AI搜索引擎遭到Mirai变种的攻击。在2025年1月7日,在23日和24日11日,Kimi.ai也遭到DDOS的攻击...
回顾这次攻击,在不到一个月的时间内,DeepSeek遇到了各种安全威胁,例如大规模DDOS攻击,僵尸网络,伪造网站的洪水,数据库安全风险等,甚至对正常服务产生了严重影响。时间。公共信息表明,DeepSeek主要面临DDOS攻击,并且经历了次要的HTTP代理攻击,大量的HTTP代理攻击,僵尸网络攻击和其他行为。袭击中涉及的两个僵尸网络是Hailbot和Rapperbot。
Qi'anxin安全专家认为,所有迹象都反映了整个AI行业面临的严重安全挑战。 “ AI行业面临的网络攻击可能会显示长持续时间,攻击方法的持续发展以及持续的攻击强度。专家指出。
另一方面,尽管大型模型经常发生网络攻击,但总结许多攻击的某些特征并不难。
首先,无论是chatgpt,kimi还是受攻击的深索克,它们都有一个共同点 - 它们都是由具有启动属性的技术公司创建的。相比之下,大多数由传统的旧互联网巨头(例如Bing,Tongyi Qianwen和Wen Xin Yiyan)创建的大多数大型模型不会受到攻击的影响。
与传统的互联网巨头相比,Hao Long,Shengbang Security Service产品线的总经理和研发总监,启动技术公司的安全系统建设能力远不如在互联网上挣扎的巨人多年。此外,安全属于企业成本支出的类别。对于资金和资源有限的初创企业,他们更愿意使用更多的资源来进行模型技术的研发和迭代,这也会导致模型能力,但保护能力不足。 ,很容易成为攻击的目标。
巧合的是,Qi'anxin安全专家还告诉Titanium Media App,在国防机制建设层面上,大型模型需要通过严格的安全技术保证和操作监控来确保其自身的安全,可靠性和稳定性。目前,非常缺乏大多数大型模型的安全结构。
攻击的背后,大型模型的安全体系结构仍需要改进
在与许多安全行业专家进行沟通时,几乎所有专家都对钛媒体应用程序的当前大规模安全系统的构建表示关注。
天毒素安全专家告诉钛媒体应用程序,大型模型系统在操作中面临多种安全风险,这些风险是由技术缺陷,不当使用和恶意使用引起的。在处理敏感数据时,攻击的脆弱性会导致数据盗用,服务中断和用户流失。如果模型本身具有缺陷或后门,则将成为攻击的目标。例如,中毒攻击可以控制模型的输出并干扰业务。此外,大型模型产生的内容可能会导致错误信息,歧视,隐私泄漏等,威胁到公民安全,国家安全和道德安全。因此,有必要从系统的角度制定算法,数据,系统和信息内容的预防措施。
从模型自身风险的角度来看,由于该模型本身需要提供公共服务并涉及敏感信息的公开场景,因此它将引起各种安全风险,包括:及时注射攻击,拒绝服务攻击,及时单词泄漏,一般的越狱漏洞等人,“这些攻击将对大型模型的安全性和稳定产生重大影响。” Qi'anxin安全专家指出。
从模型保护机制构建的角度来看,大型模型需要通过严格的安全技术保证和操作监控来确保其自身的安全性,可靠性和稳定性。目前,非常缺乏大多数大型模型的安全结构。例如,这次遭受了大量攻击的DeepSeek,例如,Netsu Technology安全部高级技术总监Hu Gangwei告诉Titanium Media App,DeepSeek这次遭受了大规模攻击。一方面,原因是DeepSeek自己的防御机制不足,并且未能保留足够的保护资源来面临高强度DDOS攻击。另一方面,这也与DeepSeek在开发过程中未能改善安全测试机制的情况有关。这导致攻击者利用脆弱性。
除了直接攻击外,攻击者还将使用对抗性攻击和数据中毒来破坏大型模型的安全性。例如,在2023年,一个教育巨头的AI模型被培训数据污染,并且出现了“有毒教科书”,最终导致该公司的市场价值蒸发到120亿元人民币。 “就数据中毒而言,污染大型开源数据集仅需少量成本,这反过来影响了根据这些数据训练的大型模型的行为。” Qi'anxin安全专家说。
另一方面,就模型防御机制的构建而言,与传统的互联网制造商相比,启动大规模企业在安全开发管理,数据保护系统,安全对抗能力等方面具有明显的“缺点”和网络安全保护技术落后。传统的保护系统很难处理复杂的攻击。关于模型防御机制的建设,Qi'anxin Security专家提出了建议。在大型模型安全服务方面,有必要加强合规性咨询服务,安全测试和评估服务,安全培训服务,紧急响应服务,持续监控服务等。
在产品方面,除了传统的网络安全和数据安全解决方案外,还将出现用于大规模模型输入和输出的内容过滤产品,模型保护安全产品,大规模的模型道德审计产品等。
安全性的“缺点”决定了模型的上限
Gartner预测,到2025年,生成AI的采用将导致企业所需的网络安全资源激增,将应用程序和数据安全支出增加超过15%。
随着企业数据价值的持续加深和与网络不可分割的企业业务的逐步支持,在选择使用数字技术因素的过程中,由网络安全和数据安全所代表的“虚拟”资产安全已成为必要的考虑因素。
除了模型自身的鲁棒性,可解释性,幻觉和其他问题引起的安全问题外,训练该模型的系统平台还具有隐藏的安全风险。在系统平台部分中,您可能会遭受一般风险,例如未经授权的访问和未经授权的使用。此外,还可能存在关键问题,例如机器学习框架安全风险,开发工具链安全风险,系统逻辑缺陷风险以及与插件相关的安全风险。风险。
同时,在业务应用程序级别上,大型模型还具有相关风险,这可能是不合时宜地更新测试和验证数据的一般风险,以及由非法和不良信息产生的关键风险,数据泄漏所代表和恶意使用用户。
值得一提的是,随着人工智能技术的发展,AI攻击的形式已经变得越来越多样化和复杂。除了传统的网络攻击方法外,攻击者还使用AI的独特功能来增强攻击的效果并增强攻击的隐藏。面对各种形式的AI攻击形式,还需要相应地升级防御策略,使用AI驱动的防御手段用AI的“魔术”来击败攻击者。
为此,许多安全行业专家建议国内高科技企业建立对对抗性的安全操作系统,将产品,人员,手段和流程整合到一个联系中,并从四个方面整合它们:事件驱动,情报驱动的, ,对抗驱动和狩猎驱动。考虑到高级网络安全监控和保护技术的使用,我们可以使用攻击表面识别,网络入侵和威胁检测以及升级安全保护策略。我们还可以使用红色和蓝色对抗来验证自己的安全保护级别,并使用AI大型模型来处理新的攻击。
大型模型本身也是一个应用程序,需要外部服务,因此必须缺乏传统的安全保护。例如,使用防火墙,入侵检测以及反DDOS硬件安全设备,或使用云抗D和云WAF以及其他云服务来确保网络,数据和应用程序级别在网络,数据和应用程序级别上的安全性。
为了应对AI大型模型的独特安全风险,例如及时注射攻击,信息内容安全风险,数据隐私泄漏以及道德和法律风险,需要升级安全保护方法使用对抗训练技术来抵抗迅速攻击。 ;升级数据治理,控制数据质量并避免产生不良信息;实时监视和查看模型的输出内容,并及时拦截和纠正有害信息。
尽管安全措施可能会增加计算成本(例如延迟的延迟推断),但是通过技术创新(例如GPU的可信执行环境)可以实现安全性和效率之间的平衡。在Hao Long的看来,安全问题适用于大型企业。尽管这是一个成本问题,但安全也构成了大型模型“桶”的关键木材,该木材确定了大型模型的上限在哪里。
从国内大型型号行业的发展中,不论是木木还是迪皮索克,大多数被暴露于受到大量人攻击的大型模型产品都是初创公司的产品。相比之下,传统互联网巨头开发的大型模型产品(例如Wen Xin Yiyan)具有相对较高的安全因素。但是,总的来说,Qi'anxin资产测量和映射Eagle图平台监视发现,在8971 Ollama(大语言模型服务工具)中,大型型号服务器,6449个主动服务器,其中88.9%在互联网上“裸”,导致了该服务器,导致任何人都可以在没有任何身份验证的情况下致电和访问这些服务,而无需未经授权,这可能会导致数据泄漏和服务中断,甚至可以发送说明以删除已部署的大规模模型,例如DeepSeek和Qwen。
原因是传统的互联网巨头长期以来一直处于网络安全和数据安全领域,并且安全系统的构建相对完整。但是,由于成本考虑或缺乏经验,初创企业在安全系统的构建中相对落后。如果无法跟进它们,如果您弥补了安全系统,即使模型产品最终也会成为“锅中的闪光灯”。大型模型的安全功能不仅与预防风险和控制有关,而且是突破应用天花板的关键。 (本文首次发表在钛媒体应用程序上,作者|张·谢尤(Zhang Shenyu),编辑| gai hongda)
Sina Finance应用程序可用大量信息和准确的解释