大型语言模型在网络安全中的应用前景
关键要点
Google的研究表明,尽管GenAI在网络安全领域有潜力,但短期内御敌能力有限。人工智能可以增强网络安全防御,尤其在识别和响应安全事件方面。当前在使用AI检测和修复软件漏洞上遇到挑战,但在其他领域表现出色。在旧金山举行的一场Google深度分析大型语言模型的活动中,发言人Elie Bursztein展示了我们在将网络安全任务交给GenAI方面的进步与不足,包括零样本内容审核、识别和修复开源代码中的问题,以及检测和修复软件漏洞的能力。
Bursztein表示:“我认为这个过程并不会像人们想象的那样快,估计需要几个月的时间。”他是Google和DeepMind的AI网络安全技术与研究负责人。
请点击此处获取SC媒体的RSAC实时报道。
在RSAC会议上,Bursztein主持的会议标题为“大型语言模型如何重塑网络安全格局”,他表示:“人工智能最终会让我们在面对AI驱动的对手时重新获得优势,因为使用它的好处非常巨大。”
人类在监控
Bursztein在讲话中提到,当前使用对抗性GenAI的最令人担忧的问题是对手传播虚假信息的能力,其次是利用GenAI制作诱人的钓鱼邮件。虽然目前尚未对安全专业人士构成威胁,但攻击者成功使用这一技术创建新型恶意软件或制造核、生化武器的可能性值得关注。
反之,大型语言模型LLM的防御性应用正在逐步成型,Bursztein表示前景喜人。他指出:“我认为你可以考虑将AI作为一种新的使用案例,作为对现有安全性的重要补充。”
他认为,安全专业人士应当为当前和下一代AI攻击做好准备。
GenAI的最有前景机会
Bursztein在讲座中讨论了利用语言模型的潜力,尤其是在以下几方面:
训练语言模型:提高模型综合能力,模拟人类推理,使技术能够在无需人工审查的情况下分类用户生成的内容。例如,在分析钓鱼邮件和社交媒体虚假信息事件时表现尤为突出。
多模态理解:通过生成引擎分析图像、文本、视频或代码,确定其是否具有恶意。
代码理解:AI可以扫描像GitHub这样的代码库,识别恶意代码,并标记它们,可能还会提供安全代码的替代方案。
事件响应的生成能力:Bursztein表示,AI有潜力通过自动化任务来提高安全性,减少响应窗口并加快事件响应速度,这将改变安全团队的工作方式。他提到:“在处理事件响应时,时间至关重要,越快响应,效果就越好。”
他希望未来GenAI能够模拟事件或生成近实时的事件报告,从而大幅加快事件响应速度。他说:“希望借助AI辅助的事件响应能够更快,并让攻击者的生活更加艰难。”

面临的挑战
鉴于当前网络安全行业的现状,距离这个GenAI增强的未来还有很长的路要走。
在使用AI检测和修复软件漏洞方面,结果喜忧参半。AI目前在提升代码安全性方面,识别和缓解漏洞的能力同样有限。
Bursztein提到,漏洞检测面临的一些挑战包括噪声数据集和难以批量识别脆弱代码等。他说,Google内部代码库的机器学习模型实验结果不一,有的漏洞已修复,有的则未能修复。AI生成修复补丁的成功率在近期内令人质疑,主要因为准确性和成功率方面的担忧。
尽管如此,GenAI在某些流程中的表现仍然出色。Bursztein表示,利用AI在事件响应中,可以将撰写事件摘要所需的时间减少一半。他说:“在我们实现AI的全部潜力之前,还有很多研究和创新工作要做
加速器国外梯子免费