AI助手竟成企业内鬼?Tenable报告揭露间接提示注入漏洞正窃取数据,微软Copilot等工具暗藏致命隐患!如何防御这场智能革命背后的安全危机?

The enemy within: AI as the attack surface

企业董事会正敦促通过大语言模型和AI助手提升效率,但这项技术的便利性背后潜藏着新型网络安全风险。Tenable安全团队最新发布的「HackedGPT」研究报告揭示:AI助手在浏览实时网页、记忆用户上下文、连接商业应用时,其间接提示注入漏洞可能导致数据窃取与恶意软件驻留。

【攻击原理警示】
– 间接提示注入:攻击者将恶意指令隐藏于网页内容,诱导AI执行非授权数据访问
– 前端查询污染:通过特制查询语句植入攻击代码
现有案例显示,部分漏洞已被修复,但仍有攻击路径未被阻断。

【防御体系重构】
1. 资产登记迫在眉睫
依据NIST AI RMF框架建立AI资产清单,记录所有者、功能权限及数据访问范围。微软等厂商曾鼓励员工使用个人Copilot许可证导致的「影子AI」,现已成为重大威胁源。

2. 身份治理升级
AI助手需独立身份标识,实施零信任最小权限策略。需特别注意:AI的「创造性」输出不受企业纪律约束,必须建立完整的操作溯源链条。

3. 功能管控精细化
– 按场景开启网页浏览权限
– 面向客户的AI设置短期数据留存
– 内部工程使用需隔离环境并开启全日志记录
– 在连接器中部署数据防泄露方案

4. 人员能力建设
开发人员需掌握注入攻击识别技能,建立用户异常行为报告机制。关键发现:技能差距正在导致治理滞后于技术应用。

延伸思考:
• 当AI助手获得企业系统写入权限时,如何平衡效率提升与操作风险?
• 在法律制度尚未完善的背景下,AI自主决策引发的安全事故责任应如何界定?

高管须知:必须将AI助手视为具有独立生命周期的网络应用,建立注册机制、身份分离体系、风险功能默认禁用策略,并定期开展安全演练。唯有筑牢这些防线,智能助手才能真正成为生产力助推器而非安全漏洞源。

(图片来源:aha42 | tehaha依据CC BY-NC 2.0许可发布的「The Enemy Within Unleashed」)

阅读 ArtificialIntelligence News 的原文,点击链接

Simon