6月5日上午,奇安信集团董事长齐向东在2024全球数字经济大会数字安全高层论坛暨北京网络安全大会战略峰会上表示,网络安全防护人员数量和资源不足,使网络攻击防不胜防,也是当前网络安全的最大漏洞,解决有限的安全资源和100%的安全追求之间的矛盾,要靠AI驱动安全。
会后,齐向东现场接受了新京报贝壳财经记者采访。对于当前AI落地过程中可能令企业顾虑的安全问题,齐向东表示,AI引发了数据安全的特殊场景,而这在以往没有遇到过。“AI+”应该是千行百业,但是AI+网络安全,一定会走得更快,这样才符合AI发展的趋势和潮流。
AI通过学习获得更强能力 也带来数据泄露风险
2024年是AI落地之年,在此前的采访中,新京报贝壳财经记者观察到,不少企业对于引入AI大模型提高生产力持欢迎态度,但落地的障碍除了数字化技术有待升级,还有对于AI可能导致企业核心“秘密”或重要客户资料泄露的顾虑。
对此,齐向东告诉贝壳财经记者,把AI当成超级人脑,问它问题的时候,输入的内容越多,返回的建议就越精准、越有价值,但俗话说“教会徒弟饿死师傅”,如果千行百业中的每一个专家向AI发问的时候都“掏心窝子”,把自己所知的倾囊告知AI,那么AI通过学习,实际就拥有了更强的能力,这给我们带来了数据泄露的风险。
“可能向AI提问涉及专有的知识产权、发明和商业秘密,AI学习之后,当竞争对手向AI提出问题时,AI可能会把你的方案作为最优的方案,或者参考你的方案,给予竞争对手更优的方案,这个时候,在跟AI交流的过程中,不知不觉地把你的商业秘密泄露了,这是AI引发数据安全的特殊场景,而这个场景在以往没有遇到过。”齐向东说。
在他看来,这一点颇为矛盾,“AI不管在训练还是使用的过程中,必然要接入数据,如果让AI自动工作,不让它触碰数据不行。就像我们雇了高级的员工,员工要做高级的工作,不让碰公司的业务数据是做不了的。既然要碰数据,AI又不是‘自己生的’,而是从外面‘领养’的,那么,AI是否会有后门,AI是否会被人‘投毒’,都是无从可知的,也没有能力发现,这是数据安全带来的另一潜在风险。”
齐向东认为,这是AI使用过程中可能会带来的数据安全问题,这些问题不解决就会影响AI的发展和驱动,“我们也不要被AI可能引发的数据泄露所吓到,要拥抱AI,也要把安全的问题交给安全公司,相信专业人办专业的事。安全公司发展AI,给客户带来数据安全的风险很低,因为安全的AI所触碰的是安全设备产生的告警,而这个告警信息与业务信息剥离,不含有业务信息的密码,所以哪怕是把安全设备产生的告警信息全部给安全公司,让安全公司用于AI的学习,或者是AI的指导,也不会导致商业秘密的泄露和数据泄露。”
AI驱动网络防护能力指数级跃升 但释能仍需“统一度量衡”
“攻击者突破安全防线有几个阶段,先突破单点设备、再突破防护体系。安全事件被发现后,还要想办法隐匿踪迹。”齐向东介绍,AI在网络安全领域的应用已经可以覆盖这几个阶段,并带来网络防护能力数十倍乃至上千倍的提升。
具体来看,在单点设备的检测上,人工智能依托算力资源和持续训练后的研判能力,打破了人力资源和效率边界,能减少90%的漏报,实现安全能力10倍级提升。在体系化防御上,AI赋能综合分析和全局联动,带来安全能力百倍级提升。在溯源和反制上,AI凭借智能化、自动化,可实现响应能力的千倍级提升。
不过,齐向东认为,AI在网络安全领域释放强大潜能也有赖于三大必要条件,分别为全而新的高质量数据,为AI训练和应用提供基础支撑;体系化的网络安全建设,为AI发挥效率创造平台;标准的统一,为AI驱动安全效能发挥扫除障碍。
“统一度量衡,功在当代,利在千秋。”齐向东呼吁,进入AI驱动安全的新纪元,全行业要在数据输入、指令输出两大关键环节实现“车同轨、书同文”。
新京报贝壳财经记者 罗亦丹