当前位置: 首页 > backend >正文

【论文阅读】APMSA: Adversarial Perturbation Against Model Stealing Attacks

摘要

训练深度学习 (DL) 模型需要专有数据和计算密集型资源。为了收回训练成本,模型提供商可以通过机器学习即服务 (MLaaS) 将 DL 模型货币化。通常,该模型部署在云中,同时为付费查询提供可公开访问的应用程序编程接口 (API) 以获得好处。然而,模型窃取攻击对这种模型货币化计划构成了安全威胁,因为它们窃取了模型,而没有为未来的大量查询付费。具体来说,攻击者通过对目标模型进行查询,获取输入输出对,从而通过对替代模型进行逆向工程来推断模型的内部工作机制,从而剥夺了模型所有者的商业优势,泄露了模型的隐私。在这项工作中,我们观察到,在给定不同的查询输入的情况下,从受攻击模型 (MUA) 返回的置信度向量或前 1 个置信度在相对较大的程度上变化。因此,MUA 的丰富内部信息被泄露给攻击者,该攻击者帮助她重建了替代模型。因此,我们建议利用对抗性置信度扰动来隐藏给定不同查询的这种不同的置信度分布,从而对抗模型窃取攻击(称为 APMSA)。换句话说,对于来自特定类别的查询,现在返回的置信度向量相似,大大减少了 MUA 的信息泄漏。为了实现这一目标,通过自动优化,我们建设性地将精细的噪声添加到每个输入查询中,使其置信度接近 MUA 的决策边界。通常,此过程是通过制作对抗性示例的类似方式实现的,但区别在于硬标签被保留为与查询的 input 相同。这为普通用户保留了推理效用(即在不牺牲推理准确性的情况下),但将泄露的置信度信息限制在一个较小的受限区域(即接近决策边界)内。后者大大降低了攻击者的替代模型的准确性。由于 APMSA 用作插件前端,不需要对 MUA 进行任何更改,因此它是通用的且易于部署。通过在 CIFAR10 和 GTSRB 数据集上的实验验证了 APMSA 的高效性。给定 CIFAR10 上 ResNet-18 的 MUA 模型,对于普通用户的硬标签推理请求,我们的防御可以将被盗模型的准确率降低高达 15%(在很大程度上使被盗模型毫无用处),准确率下降 0%。

http://www.xdnf.cn/news/3291.html

相关文章:

  • 7.软考高项(信息系统项目管理师)-资源管理
  • C++初阶-string类2
  • [PRO_A7] SZ501 FPGA开发板简介
  • Roboflow标注数据集
  • crashpad 编译
  • 时态--00--总述
  • 1254. 【动态规划】单词的划分
  • KUKA机器人不同的用户权限详细介绍
  • vue+django农产品价格预测和推荐可视化系统[带知识图谱]
  • 0901context_useReducer_状态管理-react-仿低代码平台项目
  • 如何写好Verilog状态机
  • 【Bootstrap V4系列】学习入门教程之 布局
  • w~大模型~合集14
  • 用电数据 一网打尽“多回路计量电表”让能耗管理更简单
  • 【文献分享】Modelling the species-area提供数据和代码
  • 技术研究 | 推荐系统训练后多分类属性遗忘:双组分损失优化与效用空间正则设计
  • GitHub修炼法则:第一次提交代码教学(Liunx系统)
  • Redis Info 性能指标描述
  • AIGC 大模型微调实战:中小企业如何用自有数据训练专属 AI 模型?
  • TCP三次握手、四次挥手+多线程并发处理
  • 昆仑万维:AI短剧出海布局,中型公司如何突破AI商业化?
  • 可视化图解算法:判断是否完全二叉树
  • PH热榜 | 2025-04-30
  • 如何使用C语言手搓斐波那契数列?
  • 如何设计一个100w QPS高并发抢券系统
  • 海外社交软件技术深潜:实时互动系统与边缘计算的极限优化
  • 借助电商 API 接口实现电商平台商品数据分析的详细步骤分享
  • MCP 服务器搭建【sse 类型】实现上市公司年报查询总结, 127.0.0.1:8000/sse直接配置配合 Cherry Studio使用简单
  • 徐州旅行体验分享:从扬州出发的 24 小时碳水之旅
  • Wireshark使用教程