相关项目
Open-Prompt-Injection
439 · Python
为 LLM 提示注入攻击与防御提供全面基准测试的开源项目,系统评估不同攻击策略和防御机制的有效性。
prompt-injectionbenchmarkllm-safety +2
JailTrickBench
162 · Python
NeurIPS 2024 论文配套的 LLM 越狱攻击基准测试工具,系统收集和评估越狱攻击技巧,为 LLM 安全研究提供标准化评测框架。
benchmarkjailbreakllm-safety +2
Vigil
478 · Python
Vigil 是一个 LLM 安全检测工具,能够识别提示注入、越狱攻击和其他潜在危险的 LLM 输入,通过多维度分析提供实时安全防护。
prompt-injectionsecurityllm-safety +2
AgentShield Benchmark
21 · TypeScript
AI 智能体安全工具的开放基准测试,涵盖提示注入、数据泄露、工具滥用和来源追踪等安全维度的评估。
securitybenchmarkai-safety +2