人工智能驱动的补丁如何改变网络安全

未修补的软件漏洞长期以来一直是网络安全的一个长期痛点,每年都会导致代价高昂的数据泄露。 根据 IBM 的《2023 年数据泄露成本报告》,平均而言,因利用已知漏洞而导致的数据泄露成本为 417 万美元。 问题是:组织修复软件缺陷的速度赶不上威胁行为者发现并利用这些缺陷的速度。 根据 Verizon 的“2024 年数据泄露调查报告”,一旦发布严重漏洞,恶意扫描活动平均会在五天内开始。 另一方面,在关键漏洞修复可用两个月后,其中近一半仍未修复。 一个潜在的解决方案:生成式人工智能。 一些网络安全专家认为,GenAI 不仅可以发现错误,还可以修复错误,从而帮助缩小这一差距。 在内部实验中,Google 的大型语言模型 (LLM) 已经取得了适度但显着的成功,修复了其针对的 15% 的简单软件错误。 在 RSA 会议 (RSAC) 2024 的演讲中,Google DeepMind 网络安全技术和研究负责人 Elie Bursztein 表示,他的团队正在积极测试各种人工智能安全用例,从网络钓鱼预防到事件响应。 但利用谷歌的法学硕士通过查找和修补漏洞来保护其代码库的能力——并最终减少或消除需要修补的漏洞数量——是他们人工智能安全愿望清单中的首要任务。 谷歌人工智能驱动的修补实验 在最近的一项实验中,Bursztein 的团队从 Google 代码库中编译了 1,000 个简单漏洞,这些漏洞是由 C/C++ 清理程序发现的。 然后,他们要求基于 Gemini 的人工智能模型(类似于 Google 公开的 Gemini Pro)来生成和测试补丁,并确定最佳的补丁供人工审核。 在技​​术上 报告研究人员 Jan Nowakowski 和 […]