IT之家 7 月 15 日消息,随着生成式人工智能技术的广泛应用,安全问题也日益成为公众关注的焦点。2023 年,微软的一项研究揭示了一个令人担忧的趋势:黑客开始利用像微软 Copilot 和 OpenAI 的 ChatGPT 这样的人工智能工具,对毫无防备的用户实施网络钓鱼计划。
如今,网络攻击者变得更加狡猾,他们不断想出巧妙的方法来绕过复杂的安全系统,以获取未经授权的敏感数据。最近几周,就有用户精心策划骗局,试图降低 ChatGPT 的安全限制,诱使其生成有效的 Windows 10 激活密钥。
Windows 用户对微软 Defender 并不陌生,这是一个复杂的安全平台,旨在保护用户免受黑客的恶意攻击。然而据 Dark Reading 报道,安全研究公司 Outflank 的研究人员计划在 8 月的“黑帽 2025”网络安全大会上发布一种新型人工智能恶意软件,这种恶意软件能够绕过微软 Defender for Endpoint 的安全防护。
Outflank 的首席进攻专家负责人凯尔・艾弗里(Kyle Avery)在接受采访时表示,他花了大约 3 个月的时间开发这种人工智能恶意软件,并花费了 1500 至 1600 美元(IT之家注:现汇率约合 10759 至 11476 元人民币)用于训练 Qwen 2.5 大型语言模型(LLM),使其能够绕过微软 Defender 的安全防护。
有趣的是,这位专注于人工智能的研究人员还分享了他对 OpenAI 的 GPT 模型及其最新旗舰推理模型 o1 的见解。尽管他承认 GPT-4 相比 GPT-3.5 有了重大升级,但他指出,OpenAI 的 o1 推理模型具备了更复杂的功能,尤其擅长编程和数学。
艾弗里表示,DeepSeek 利用强化学习技术来提升其模型在广泛主题上的能力,包括编程。因此,他在开发能够绕过微软 Defender 安全解决方案的人工智能恶意软件时,也应用了这一理论。
研究人员承认,开发过程并非易事,因为大型语言模型主要通过互联网数据进行训练,这使得他难以获取传统恶意软件来训练人工智能驱动的等效产品。此时,强化学习发挥了关键作用。研究人员将 Qwen 2.5 LLM 置于一个安装了微软 Defender for Endpoint 的沙盒环境中,然后编写了一个程序来评估该人工智能模型输出规避工具的接近程度。
据艾弗里介绍:“它绝对不可能直接做到这一点。也许一千次中只有一次,它会偶然写出一些能够运行但无法规避任何检测的恶意软件。当它做到这一点时,你可以奖励它生成了能够运行的恶意软件。”
“通过这种迭代过程,它会越来越稳定地生成能够运行的恶意软件,不是因为你向它展示了例子,而是因为它被更新得更有可能进行那种导致生成有效恶意软件的思维过程。”
最终,艾弗里接入了一个 API,使模型能够更方便地查询和检索由微软 Defender 生成的类似警报。这样一来,模型更容易开发出在绕过软件安全屏障时不太可能触发警报的恶意软件。
研究人员最终实现了他期望的结果,成功利用人工智能生成了能够绕过微软 Defender 复杂安全解决方案的恶意软件,其成功率约为 8%。相比之下,Anthropic 的 Claude 人工智能在类似测试中的成功率不到 1%,而 DeepSeek 的 R1 模型的成功率仅为 1.1%。
随着人工智能骗局和恶意软件变得越来越复杂,像微软这样的公司是否会加大其安全解决方案的力度,将是一个值得关注的问题。在当前形势下,他们似乎别无选择。