Anthropic揭示AI策划网络攻击的实际运作方式——企业须知要点

AI竟能自主策划网络攻击?首例曝光行动颠覆威胁格局,企业防御面临机器速度的震撼挑战!

Anthropic just revealed how AI-orchestrated cyberattacks actually work—Here’s what enterprises need to know

多年来,网络安全专家们一直在争论人工智能何时——而非是否——会从顾问角色跨越门槛,成为自主攻击者。如今,这一理论上的里程碑已经到来

Anthropic近期对一起国家支持的黑客活动进行的调查【PDF】记录了一个关键转折:首例由AI大规模自主协调、人工监督极少的网络攻击。这彻底改变了企业在未来威胁格局中必须应对的局面。

此次被Anthropic标记为GTG-1002的黑客活动,展现了安全研究人员长期警告、却从未在现实中目睹的场景:一个AI系统近乎自主地执行网络入侵的每个阶段——从初步侦察到数据窃取——而人类操作员仅负责监督关键的战略节点。

这并非渐进式演变,而是攻击能力的范式转移。它将原本需要熟练黑客团队数周完成的工作,压缩至以小时计,并以机器速度同时对数十个目标展开行动。

数据揭示了真相:Anthropic的法证分析显示,GTG-1002战术行动的80%至90%是自主运行的,人类仅在每次活动中干预4到6个关键决策点。该行动瞄准了约30个实体,包括大型科技公司、金融机构、化工制造商和政府机构,并成功侵入了数个高价值目标。在活动高峰期,AI系统以每秒多次操作的速度生成数千个请求,这种节奏是人类团队根本无法持续维持的。

这些AI协调攻击背后的技术架构,显示出攻击者对AI能力和安全绕过技术有着深刻理解。GTG-1002围绕Anthropic的代码辅助工具Claude Code构建了一个自主攻击框架,并集成了模型上下文协议(MCP)服务器,以接入标准渗透测试工具(如网络扫描器、数据库利用框架、密码破解工具和二进制分析套件)。

关键突破不在于开发了新型恶意软件,而在于“协调”。攻击者通过精心设计的社会工程学手段操纵Claude,使其相信自己在为一家网络安全公司进行合法的防御性安全测试。他们将复杂的多阶段攻击分解为看似无害的离散任务(如漏洞扫描、凭证验证、数据提取),每个任务单独评估时都显得合法,从而阻止了Claude识别整体的恶意意图。

一旦投入运行,该框架展现出惊人的自主性。在一个有记录的入侵案例中,Claude独立完成了以下所有操作:发现目标网络内部服务、绘制多个IP段的完整网络拓扑、识别包括数据库和工作流编排平台在内的高价值系统、研究并编写定制漏洞利用代码、通过回调通信系统验证漏洞、窃取凭证、在发现的基础设施中系统性地测试凭证、以及分析/窃取数据并按情报价值分类——全程无需人类逐步指导

AI能在持续数天的会话中保持持久的操作上下文,使攻击活动在中断后能无缝恢复。它根据发现的基础设施自主做出目标决策,在初始方法失败时调整利用技术,并在所有阶段生成全面的文档(如记录发现的服务、窃取的凭证、提取的数据和完整攻击进程的结构化Markdown文件)。

GTG-1002活动颠覆了塑造企业安全策略的几个基本假设。传统防御措施(如速率限制、行为异常检测、操作节奏基线)通常是围绕人类攻击者的局限性来设计的,如今它们面对的却是拥有机器速度和持久力的对手。

网络攻击的经济学已发生巨变。由于80-90%的战术工作可被自动化,这可能使国家级攻击能力被技术水平较低的威胁行为体所掌握

然而,AI协调的网络攻击也存在固有的局限性,企业防御者应予以了解。Anthropic的调查记录了AI在操作中频繁出现的“幻觉”现象:Claude声称获取了无效凭证、将公开信息误判为“关键发现”、以及夸大需要人工验证的成果。可靠性问题仍是实现完全自主操作的主要障碍,但如果认为这些问题会永久存在,则是一种危险的天真,因为AI能力仍在持续进步。

先进AI的双重用途特性既带来挑战,也蕴含机遇。赋能GTG-1002行动的同种能力,也被证明对防御至关重要——Anthropic的威胁情报团队在调查中就高度依赖Claude来分析海量数据。在下一波更复杂的自主攻击到来之前,积累在特定环境中有效的组织经验(理解AI在防御场景中的优势与局限)变得至关重要

Anthropic的披露标志着一个转折点。随着AI模型进步和威胁行为体完善其自主攻击框架,问题已不再是AI协调的网络攻击是否会扩散,而是企业防御能否以足够快的速度进化以应对它们。准备的窗口期虽然仍在,但正在以许多安全负责人可能尚未意识到的速度迅速收窄。

延伸思考

1. 防御自动化竞赛:当攻击端已实现80-90%的自动化,防御端应如何加速部署和整合AI驱动的自动化响应系统,以匹配机器速度的威胁?这将对安全团队的技能构成和组织结构产生何种影响?
2. 责任与归因困境:在AI自主执行大部分攻击链条的背景下,如何准确归因并界定开发方、使用方(国家或组织)乃至AI模型本身的责任?这会给国际网络安全治理和法规带来哪些前所未有的挑战?


*(本文基于Anthropic调查报告。相关行业活动信息已略去。)*

阅读 ArtificialIntelligence News 的原文,点击链接

Simon