敵対的プロンプトまとめ
LLMにおける敵対的プロンプト
生成AIのハッキング手法と対策
GPTs
GPTsを悪用した攻撃まとめ
悪意のあるGPTsがユーザーを攻撃する手法とその対策
GPTsのプロンプトインジェクション
GPTsのインジェクションの防御方法
GPTsのセキュリティ対策のコツ
用語集
敵対的プロンプティング
プロンプトインジェクション
プロンプトリーキング
ジェイルブレイク
論文
The Instruction Hierarchy: Training LLMs to Prioritize Privileged Instructions
< OpenAIの2024.4の論文
羊の皮を被ったGPT:カスタマイズされたGPTのリスク
GPTsのプロンプトインジェクションのリスク調査論文
参考文献
https://www.promptingguide.ai/risks/adversarial#parameterizing-prompt-components
https://qiita.com/sakasegawa/items/09d9f6a485108f5a618a