1. 首页
  2. 人工智能
  3. 机器学习
  4. Data Free Adversarial Perturbations forPractical Black Box Attack.pdf

Data Free Adversarial Perturbations forPractical Black Box Attack.pdf

上传者: 2020-08-08 08:21:31上传 PDF文件 1.54MB 热度 16次
实用黑箱攻击的无数据对抗扰动PDF论文,发表于2020-03-03 神经网络容易受到对抗性示例的攻击,这些示例是为欺骗预先训练的模型而设计的恶意输入。对抗性示例经常表现出黑匣子攻击的可转移性,这使得为一个模型设计的对抗性示例可以欺骗另一种模型。
用户评论