CrowdStrike推出新型工具防御恶意AI模型与数据窃取
网络安全公司CrowdStrike Holdings Inc.今日发布多项新功能,旨在帮助企业员工防范恶意人工智能(AI)模型及其他安全威胁。这些功能将陆续集成至该公司旗舰产品Falcon网络安全平台。
恶意AI模型检测系统
首项新功能"AI模型扫描"(AI Model Scanning)专门用于检测所谓的"特洛伊木马式AI模型"。这类AI模型在多数场景下表现正常,但当接收到特定指令时会生成恶意输出。例如,黑客可能篡改编程助手,使其在开发者咨询如何修复代码漏洞时提供错误建议。
网络犯罪分子通过两种主要方式创建这类恶意模型:向训练数据中注入恶意记录,或修改神经网络的权重参数(即决定模型如何处理指令的配置设置)。除木马化模型外,该扫描系统还能识别后门程序等威胁,并采用名为ExPRT.AI的技术对发现的问题进行风险评级。据CrowdStrike介绍,ExPRT.AI通过分析黑客活动威胁情报来评估漏洞被利用的可能性。
企业AI应用监管平台
与AI模型扫描同步推出的"AI安全仪表盘"(AI Security Dashboard)可帮助管理员发现影子AI现象——即员工未经授权使用潜在不安全的AI应用程序。该功能还能监控企业内部AI训练数据的使用情况。
数据泄露防护升级
Falcon平台的另一核心模块"Falcon数据保护"(Falcon Data Protection)在此次更新中获得多项增强:
- 新增Mac设备未授权数据转移检测能力
- 显著提升对文件窃取混淆行为的识别精度(黑客常将窃取数据打包成加密ZIP文件以规避检测)
- 实时扫描正在创建的加密ZIP文件内容(而非事后扫描)
- 即使敏感数据经过预处理,仍能识别其向生成式AI工具的上传行为
云环境数据保护方案
此次更新还包含新版"Falcon云端数据保护"(Falcon Data Protection for Cloud),可监测公有云环境中跨应用程序、数据库等资产的异常数据流动。
配套安全评估服务
CrowdStrike同步推出"SaaS威胁服务"(SaaS Threat Services),由专业团队为企业客户检测软件即服务(SaaS)应用中的不安全配置设置、高风险外部集成等问题。