- 设为首页 加入收藏
今年全国两会,全国人大代表,江苏省电子信息产品质量监督检验研究院党委书记、院长吴兰重点关注“加强人工智能大模型安全防护”这一热点话题。她建议,从加强对大模型开发者法定义务督促、推进大模型安全标准化和测评体系研究、构建多方参与的大模型安全闭环管理模式等方面增强人工智能大模型的安全防护。
吴兰表示,当前,人工智能已成为国际竞争的新焦点和经济发展的新引擎,对经济发展、社会进步、国际政治经济格局等方面都产生了重大而深远的影响。以DeepSeek为代表的人工智能大模型正迅速渗透到各行各业,引发新一代人工智能技术发展的新浪潮。在人工智能大模型快速发展的背后,模型的安全架构、漏洞响应、数据合规等方面的“系统性短板”也逐渐凸显,亟待从技术、管理等方面加强安全防护。
吴兰介绍,人工智能大模型主要面临四个方面的问题:
一是数据泄露的风险。由于人工智能大模型具有强大的碎片化信息聚合重组能力,会出现大模型在训练阶段使用的是一般数据,但输出的数据有可能是重要数据的情况。同时大模型开发需要大规模的训练数据,虽然大模型本身并不存储训练数据,但是通过技术手段可以从大模型中抽取原始的训练数据,使得大模型原始训练数据中的个人信息、敏感数据存在数据泄露的风险。尤其是目前开源大模型不断涌现,大模型的架构、参数甚至训练数据集本身都可能被开源,攻击者可以对大模型训练数据进行分析与抽取,从而造成数据泄露。
二是数据真实性的风险。由于人工智能大模型是根据训练过程中掌握的词元间概率分布规律来计算推导输出信息的,这就会导致大模型输出的只是最符合这个规律的内容,而不是真实情况的内容,从而出现大模型的幻觉现象。攻击者可以通过在训练数据中加入恶意样本,影响模型的学习过程;还可以通过增加触发器的输入频率,在不改变标签的情况下改变模型的行为。当用户对大模型产生高度信赖后,会使用户放松对大模型幻觉现象的警惕,从而接收大模型输出的错误信息。
三是模型架构的风险。部分人工智能大模型系统还依赖基于外围防护的模式,内部访问控制和细粒度权限管理不够严格,存在内外部威胁共存的风险。恶意攻击者可能通过大模型提供的开放接口植入恶意软件或病毒,从而利用漏洞攻击用户系统。模型框架通常承载着计算与存储资源,一旦遭到攻击,会给整个系统带来重大损失。
四是私有化部署的风险。Deep-Seek作为一个开源性质的大模型,已被越来越多的公司和个人以私有化部署的方式来使用。部署会用到Ollama之类的服务工具,这些服务工具的安全性直接关系私有化部署的大模型的安全,近期这些服务工具的安全漏洞被频频发现。国内安全服务商通过互联网监测发现,国内运行了Ollama大模型框架的服务器中有近90%的服务器无安全防护,攻击者可在未经授权的情况下访问这些服务器,存在数据泄露、服务中断、部署的大模型文件被删除的风险。
对此,吴兰提出以下建议:
一是建议加强法定义务督促大模型开发者加强安全保护。由于现有的《数据安全法》等相关法律法规对数据采用分类分级管理的制度,对大模型在训练阶段使用的是一般数据,但输出的数据有可能是重要数据,会出现不适宜之处。建议通过修改《数据安全法》或制定专门的人工智能法来增加大模型开发者对于训练数据的安全保护义务,要求大模型开发者无论处理何种级别的训练数据时都要履行数据安全保护义务,同时要求大模型开发者制定防范安全风险的控制方案、拟定具有可行性的风险防范效果评估标准,方案在通过行业主管部门审核后实施,在实施的过程中,行业主管部门对开发者的风险控制目标进行监督。
二是建议推进大模型安全的标准化和测评体系研究。目前还没有针对大模型的安全测评标准,多数大模型上线前仅开展性能测试,而忽视了对抗攻击、数据中毒、模型篡改、后门检测等专项测试。建议相关行业主管部门加快推进大模型安全的标准化和测评体系研究,并加速推广应用。
三是建议构建多方参与的大模型安全闭环管理模式。构建由政府主导,行业组织、研究机构、企业和个人等多方主体共同参与的大模型安全闭环管理模式。通过广泛合作,监管单位能够及时吸收行业创新成果和市场反馈,将有效的监管措施、要求和步骤反映到新的法规和政策中,从而进一步指导行业自我管理。
新闻附件: