模块一 AI 安全基础
AI 安全基础总览
建立 AI 安全的核心概念和基础知识,为后续深入学习打下坚实基础
预计阅读约 2-3 小时,实验约 2 小时
欢迎开启 AI 安全攻防之旅!本模块是整个课程的基石。在动手攻击或防御之前,你需要先回答三个根本问题:AI 系统的安全风险从何而来?大语言模型为什么会"犯错"?安全研究者应该用什么样的思维方式分析问题?本模块将围绕这三个问题,带你建立 AI 安全的核心概念、理解模型的工作原理、培养红队思维,并搭建起贯穿全课程的实验环境。
学习建议:请务必按顺序完成本模块的五个章节。前三章构建认知框架(威胁全景 → 模型原理 → 红队思维),第四章搭建实验环境,第五章则是你的第一次实战,将前四章学到的知识整合为一次完整的漏洞探测。本模块的知识将直接支撑模块二的提示词攻击学习和模块三的防御实践,因此建议不要跳过任何章节。
学习目标
完成本模块后,你将能够:
- 识别 AI 安全威胁的独特性,理解与传统网络安全的区别
- 掌握大语言模型的核心工作原理(Transformer、分词、关键参数)
- 使用 STRIDE 等方法进行威胁建模,建立红队思维
- 在云平台上配置完整的 AI 安全测试环境
- 对 AI 系统进行初步的手动和自动化漏洞探测
章节概览
第1章:AI 安全威胁全景图
AI 安全与传统安全有什么不同?OWASP Top 10 for LLM 涵盖哪些威胁?通过真实安全事件建立直观认知
第2章:大语言模型的工作原理
从"自动补全"理解语言模型本质,学习 Transformer 架构、文本分词原理和 Temperature 等关键参数
第3章:红队视角
理解红队与蓝队的角色区别,掌握红队分析五步法和 STRIDE 威胁建模,明确法律伦理边界
第4章:安全测试环境搭建
在云平台上配置 Python 环境、安装核心依赖库、加载第一个模型,完成最小链路验证
第5章:AI 漏洞探测初体验
了解 AI 漏洞的三层分类,掌握手动探测技巧和自动化探测思路,学会结构化记录测试结果
配套实验
安全提示
本模块介绍的攻击技术仅供学习和研究目的。请在合法和授权的环境中进行实验,不要将这些技术用于未经授权的系统或恶意用途。