GenAI 安全攻防实战课程
模块二 提示词攻击

提示词攻击总览

深入学习提示词注入、越狱技术和防御策略

本模块将带你深入探索提示词攻击的世界。提示词攻击是针对大语言模型最常见也是最有效的攻击手段之一。通过精心设计的输入,攻击者可以操纵 AI 系统执行非预期的操作,绕过安全限制,甚至泄露敏感信息。

预计学习时间

阅读时长:约 3-4 小时 | 实验时长:约 3 小时

学习目标

完成本模块后,你将能够:

  • 理解提示词注入的本质,掌握直接注入和间接注入的原理
  • 掌握主流越狱技术,包括 DAN 系列、编码绕过和逻辑操纵
  • 学会系统提示提取技术,了解如何获取 AI 系统的内部配置
  • 理解内容过滤器的工作机制,掌握字符级、语义级、结构级绕过技术
  • 建立多层防御思维,设计和评估 AI 系统的安全方案

章节概览

配套实验

安全提示

本模块介绍的攻击技术仅供学习和研究目的。请在合法和授权的环境中进行实验,不要将这些技术用于未经授权的系统或恶意用途。

常见问题

🛡️ AI 安全助教

随时为你解答 AI 安全相关问题