GenAI 安全攻防实战课程
模块三 对抗样本

对抗样本总览

理解对抗样本的原理、攻击技术与防御方法

在一张熊猫的照片上添加一些人眼几乎看不见的噪点,能让 AI 模型将它误认为是长臂猿——这种通过精心设计的微小扰动来欺骗 AI 模型的技术,就是对抗样本攻击。对抗样本的存在揭示了 AI 模型的一个根本性脆弱点:它们对输入数据的微小变化异常敏感。

本模块将带你深入理解对抗样本的工作机制,学习白盒攻击和黑盒攻击技术,探索文本对抗攻击的特殊挑战,并掌握基本的防御方法。

预计学习时间

阅读时长:约 3-4 小时 | 实验时长:约 4 小时

学习目标

完成本模块后,你将能够:

  • 理解对抗样本的基本概念,掌握其有效的核心原因
  • 掌握 FGSM 和 PGD 等白盒攻击算法的原理和实现
  • 理解迁移攻击和基于查询的黑盒攻击策略
  • 认识文本对抗攻击的独特挑战和三种攻击层次
  • 建立防御思维,了解对抗训练等主流防御技术

章节概览

配套实验

安全提示

本模块介绍的攻击技术仅供学习和研究目的。请在合法和授权的环境中进行实验,不要将这些技术用于未经授权的系统或恶意用途。

常见问题

🛡️ AI 安全助教

随时为你解答 AI 安全相关问题