生成式AI尚不成熟 电信运营商如何做到有备无患

发稿时间: 2023-08-25 16:23 来源:中国电信业 作者: 田宇 2023-08-25
分享X

ChatGPT的横空出世引爆全网,让生成式AI(Gen-AI)成为各领域关注的焦点。Gen-AI作为一种算法,可以生成全新数据进行自我训练,从而实现无处不在的智能化,切实可行地解决各行业问题。但“水可载舟,亦可覆舟”,在畅想Gen-AI这一空前技术变革力量带来经济潜力的同时,也要高度警惕它可能带来的风险。网络信息安全是公司的生命线,未来在应用Gen-AI过程中,如何守住这一生命线已尤为重要。

IST_24519_67098.jpg

Gen-AI带来潜在威胁

高效的学习能力增加网络安全威胁系数

利用Gen-AI的高效、高质的学习能力,可增加犯罪行为攻击性和迷惑性。例如,英伟达(Nvidia)的CSO(首席安全官)David Reber提出,恶意黑客能够通过Gen-AI来生成大量恶意代码,会让网络安全攻击的能力进一步普及,消除了技术知识和时间/地点的限制。以色列网络安全公司Check指出ChatGPT与OpenAI的代码编写系统Codex协同使用时,可以创建携带恶意有效载荷的钓鱼邮件。Check Point Research(CPR)的网络安全研究人员发现ChatGPT一脚本中确实存在恶意窃取软件,它可以在整个系统中搜索常见的文件类型(如MS Office文档、PDF和图像),如发现任何感兴趣的文件,该恶意软件会将文件复制到一个临时目录,将其压缩,并通过网络发送出去。Sophos公司首席研究科学家Chester Wisniewski认为,ChatGPT有能力编写钓鱼邮件,并预测它还可以被用来进行更真实的互动对话,用于商业电子邮件诈骗,甚至通过Facebook Messenger、WhatsApp或其他聊天应用进行钓鱼活动。

对抗性攻击导致数据安全风险加大

深度学习作为Gen-AI的基础技术之一,其核心原理是神经网络,即通过模拟人脑的学习方式,实现复杂数据的分析和学习。由于神经网络的不透明性,且开发人员不创建规则,形成“AI 黑匣子”,很难理解数十亿的神经元和参数如何进行网络决策,增加了敏感数据泄露风险。

一方面,对抗模型攻击,AI易遭诱骗。例如,2月10日,斯坦福大学学生Kevin Liu以“提示注入”手法,成功引导Bing(以ChatGPT底层技术加持的新版Bing)泄露其工程代号和其他程序设计的技术机密。另一方面,对抗样本攻击,引导AI做出错误判断例如,卡内基梅隆大学的研究人员发现,戴上特殊眼镜,就可以欺骗面部识别算法。在2022年人工智能安全大赛的攻防场景中,同样发现如果有人将一张“神奇的贴纸”放在面部,人脸识别系统就会误认为是你,从而轻而易举打开大门。

责任规则不清晰,引发信任危机

StackOverflow是建立在信任之上的社区,这里的信任是指整个技术社区坚信用户提交的答案是他们内心所清晰了解的、准确的认知。并且,用户和同伴们拥有足够的知识和技能,来确认自己发布的信息,并且对这些信息负责。无法给整个社区一个值得信赖的环境。当所有用户都只是复制和粘贴信息到答案中,而不去验证GPT提供的答案是否正确,也不去确保答案中引用原文的来源,也没有验证GPT提供的答案是否清楚和简洁地回答了所问的问题,社区的信任就会被打破。

IST_24519_65936.jpg

对通信运营商的建议

通信运营商作为算力基础设施的主力军,Gen-AI技术必然给通信企业带来从自动化到创造化的跃升。但其带来的潜在威胁也不容忽视,针对上述威胁,早研究、早布局、早预防,才能有效降低AI风险。具体建议如下。

构建“信息通信 AI”联盟,提高Gen-AI可控性

发挥链长作用,联合上下游企业形成联盟。从AI技术应用来看,下游场景迭代创新,对中游的电信运营商、设备商,甚至上游的电子元器件制造商都产生相互影响。从底层通信标准化发展来看,通信网要覆盖全球,使不同经营者、国家经营网络需要标准和协议。为了降低技术应用成本,同样需要构建产业内的标准和协议。

针对通信产业特点,构建AI设计标准。包括AI发展的设计政策和标准,包括行为准则和设计原则,有助于定义AI治理和问责机制;AI评估与验证——对所有AI算法进行定期盘点,可以揭示在没有适当监督或治理的情况下正在开发的任何孤立AI技术、验证工具和技术可以帮助确保算法按预期执行,并产生准确、公平和公正的结果;AI审计体系——应用一系列评估框架和测试方法,根据现有的AI和技术政策与标准对系统进行评估,同时,它们还评估整个AI生命周期的治理模型和控制。

践行“责任AI”研究,提高AI应用可靠性

在伦理方面,借鉴微软、谷歌、IBM、Twitter等全球主流科技公司的AI伦理实践,坚持以“以人为中心”为基础,在隐私、安全、偏见等方面搭建符合通信领域的伦理原则。设置AI治理机构,旨在责任AI规则和标准的制定和审查。

在技术方面,加强可解释AI的研究与应用。可解释的AI是实现负责任的AI的关键要求之一,公司必须对AI的决策过程有充分的了解,并对AI进行模型监视和问责,帮助理解和解释机器学习 (ML) 算法、深度学习和神经网络,有助于加强最终用户信任、模型可审计性和AI的生产性使用。同时,还可以降低生产AI的合规性、法律、安全和声誉风险。

在落实方面,打造责任AI解决方案,包括贯穿AI生命周期的技术工具、管理工具和按应用场景的工具包等,以确保公司在AI实践中拥有可靠的技术支持。

加速“AI+ 区块链”应用,提高数智网络安全性

《“区块链+AI”行业研究报告》指出,AI能让区块链更加智能,区块链能够使AI更加安全可信。通信运营商更应深度研究“AI+区块链”的应用,重点应用可能包括:在电信设备管理领域,通过“AI+区块链”实现自动化和透明化管理,提升设备管理效率和准确度;在数据安全领域,发挥区块链的“去中心化”数据流通优势,以及Gen-AI的自动修复和优化链上漏洞优势,以提高数据交易中心的数据安全和隐私保护水平;在云网融合应用领域,利用区块链技术,实现跨网、跨云、跨区域的无缝对接。通过AI技术,充分利用闲置资源;在物联网领域,利用区块链去中心化优势,实现海量的物与物的连接,同时利用AI技术,降低物联网能耗成本,提升收入。

作者单位:中国移动通信有限公司研究

新闻附件:

相关新闻