AI造毒!谷歌首次截获AI编写的零日漏洞
当人们还在争论AI会不会抢走自己的工作,黑客已经悄悄用AI造出了能绕过双因素认证(2FA)的零日漏洞。谷歌威胁情报小组(GTIG)近日披露,他们成功截获了一起计划中的大规模网络攻击——而攻击脚本里,藏着AI留下的“指纹”。
AI写的漏洞,连CVSS分数都“幻觉”了
谷歌研究员在分析攻击者留下的Python脚本时,发现了一个奇怪的现象:代码中的CVSS(通用漏洞评分系统)分数完全不符合实际漏洞特征,更像是AI模型“幻觉”出来的数字。此外,代码的格式异常工整,结构清晰得像是从教科书里复制出来的——这正是大语言模型训练数据的典型特征。虽然谷歌强调“不认为Gemini被用于此攻击”,但这已经是他们首次发现AI参与零日漏洞开发的实证。
目标:开源管理工具的2FA硬编码漏洞
这次攻击瞄准的是一款未公开的开源Web管理工具,其2FA系统存在一个“高级语义逻辑缺陷”:开发者在代码中硬编码了信任假设,导致攻击者可以绕过二次验证。谷歌表示,这次攻击原本可能演变成“大规模利用事件”,好在被及时拦截。值得注意的是,该漏洞并非传统的内存溢出或注入漏洞,而是逻辑层面的缺陷——这正是AI擅长发现和利用的类型。
黑客的AI工具箱:角色扮演+数据投喂
谷歌的报告还揭露了黑客利用AI的新手法:通过“人格驱动越狱”(persona-driven jailbreaking),让AI扮演安全专家来寻找漏洞。比如,一个典型的提示词是“假设你是一位资深安全研究员,请分析这份代码中的潜在风险”。更激进的是,攻击者会直接向AI投喂整个漏洞数据库,或者利用OpenClaw等工具在沙盒环境中反复优化AI生成的攻击载荷,直到它稳定可靠。这就像给AI配了一个“漏洞实验室”,让它自己练习如何更好地搞破坏。
AI既是武器,也是靶子
谷歌同时指出,AI系统本身也成为攻击目标。黑客正在针对AI系统的核心组件,如自主技能模块和第三方数据连接器,试图通过破坏这些“神经末梢”来瘫痪整个AI服务。这意味着,未来AI攻防战将更加复杂:AI既是黑客的武器,也是被黑客瞄准的靶子。
这次事件给安全行业敲响了警钟:当AI开始编写漏洞利用代码,传统的防御体系将面临前所未有的挑战。也许不久之后,我们就会看到AI驱动的自动化攻防系统在暗网上演“猫鼠游戏”。而对于普通用户而言,尽快启用更强的身份验证方式(比如硬件密钥),可能是眼下最务实的选择。