GenAI 安全攻防实战课程
模块一 AI 安全基础

AI 安全基础总览

建立 AI 安全的核心概念和基础知识,为后续深入学习打下坚实基础

预计阅读约 2-3 小时,实验约 2 小时

欢迎开启 AI 安全攻防之旅!本模块是整个课程的基石。在动手攻击或防御之前,你需要先回答三个根本问题:AI 系统的安全风险从何而来?大语言模型为什么会"犯错"?安全研究者应该用什么样的思维方式分析问题?本模块将围绕这三个问题,带你建立 AI 安全的核心概念、理解模型的工作原理、培养红队思维,并搭建起贯穿全课程的实验环境。

学习建议:请务必按顺序完成本模块的五个章节。前三章构建认知框架(威胁全景 → 模型原理 → 红队思维),第四章搭建实验环境,第五章则是你的第一次实战,将前四章学到的知识整合为一次完整的漏洞探测。本模块的知识将直接支撑模块二的提示词攻击学习和模块三的防御实践,因此建议不要跳过任何章节。

学习目标

完成本模块后,你将能够:

  • 识别 AI 安全威胁的独特性,理解与传统网络安全的区别
  • 掌握大语言模型的核心工作原理(Transformer、分词、关键参数)
  • 使用 STRIDE 等方法进行威胁建模,建立红队思维
  • 在云平台上配置完整的 AI 安全测试环境
  • 对 AI 系统进行初步的手动和自动化漏洞探测

章节概览

配套实验

安全提示

本模块介绍的攻击技术仅供学习和研究目的。请在合法和授权的环境中进行实验,不要将这些技术用于未经授权的系统或恶意用途。

常见问题

🛡️ AI 安全助教

随时为你解答 AI 安全相关问题