AgentList
首页项目文章关于
探索项目
首页项目文章关于
探索项目
项目 AgentDojo

AgentDojo

正常
GitHub Python MIT

简介

苏黎世联邦理工学院开发的动态评估环境,用于测试 LLM Agent 的攻击与防御能力,提供标准化基准以衡量 Agent 系统的安全水平。

标签

security-benchmark agent-evaluation attack-defense llm-safety red-team

分类

🛡️ 安全护栏
访问 GitHub 访问官网

项目指标

Stars 560
Forks 145
Watchers 560
Issues 25
创建时间 2024年2月29日
最近提交 2026年3月30日

部署方式

本地部署

相关项目

EasyJailbreak

851 · Python
正常

一个易于使用的 Python 框架,用于生成对抗性越狱提示词,帮助研究人员系统性评估 LLM 的安全防护能力,支持多种攻击方法组合。

jailbreakadversarialllm-safety +2

AI Red Teaming Playground Labs

1.9k · TypeScript
正常

微软开源的 AI 红队测试演练实验室,提供完整的训练基础设施和实验环境,帮助安全专业人员学习 AI 系统攻防技术。

red-teamtrainingsecurity +2

SCAM

105 · Python
正常

1Password 开源的安全意识基准测试工具,通过真实的多轮工作任务测试 AI Agent 的安全意识水平,帮助评估 Agent 在职场场景中的安全风险。

security-benchmarkagent-safetyworkplace +2

Giskard

5.3k · Python
活跃

开源 LLM Agent 评估与测试库,提供自动化模型扫描、偏见检测、性能基准测试和合规检查,帮助团队在部署前全面验证 AI Agent 质量。

evaluationtestingllm-safety +3
AgentList

AgentList 是最全面的 AI Agent 开源项目导航站,发现、对比 LangChain、CrewAI 等顶级 Agent 框架,助力开发者选择最佳工具。

快速链接

  • 项目列表
  • 精选文章
  • 分类浏览

联系我们

  • 关于我们
  • 隐私政策
  • 联系我们

© 2026 AgentList. 保留所有权利。

Made with for the open source community