相关项目
Vigil
478 · Python
Vigil 是一个 LLM 安全检测工具,能够识别提示注入、越狱攻击和其他潜在危险的 LLM 输入,通过多维度分析提供实时安全防护。
prompt-injectionsecurityllm-safety +2
EasyJailbreak
851 · Python
一个易于使用的 Python 框架,用于生成对抗性越狱提示词,帮助研究人员系统性评估 LLM 的安全防护能力,支持多种攻击方法组合。
jailbreakadversarialllm-safety +2
AgentDojo
560 · Python
苏黎世联邦理工学院开发的动态评估环境,用于测试 LLM Agent 的攻击与防御能力,提供标准化基准以衡量 Agent 系统的安全水平。
security-benchmarkagent-evaluationattack-defense +2
Open-Prompt-Injection
439 · Python
为 LLM 提示注入攻击与防御提供全面基准测试的开源项目,系统评估不同攻击策略和防御机制的有效性。
prompt-injectionbenchmarkllm-safety +2