AgentList
首页项目文章关于
探索项目
首页项目文章关于
探索项目
项目 Jailbreak LLMs

Jailbreak LLMs

不活跃
GitHub Jupyter Notebook MIT

简介

一个包含 15,140 条 ChatGPT 提示词的数据集(含 1,405 条越狱提示词),来自 Reddit、Discord 等多平台,为 LLM 安全研究和越狱检测提供了大规模基准数据。

标签

jailbreak llm-safety benchmark dataset security

分类

🛡️ 安全护栏
访问 GitHub

项目指标

Stars 3.7k
Forks 319
Watchers 3.7k
Issues 3
创建时间 2023年8月1日
最近提交 2024年12月24日

部署方式

本地部署

相关项目

Open-Prompt-Injection

439 · Python
不活跃

为 LLM 提示注入攻击与防御提供全面基准测试的开源项目,系统评估不同攻击策略和防御机制的有效性。

prompt-injectionbenchmarkllm-safety +2

JailTrickBench

162 · Python
不活跃

NeurIPS 2024 论文配套的 LLM 越狱攻击基准测试工具,系统收集和评估越狱攻击技巧,为 LLM 安全研究提供标准化评测框架。

benchmarkjailbreakllm-safety +2

Vigil

478 · Python
不活跃

Vigil 是一个 LLM 安全检测工具,能够识别提示注入、越狱攻击和其他潜在危险的 LLM 输入,通过多维度分析提供实时安全防护。

prompt-injectionsecurityllm-safety +2

AgentShield Benchmark

21 · TypeScript
活跃

AI 智能体安全工具的开放基准测试,涵盖提示注入、数据泄露、工具滥用和来源追踪等安全维度的评估。

securitybenchmarkai-safety +2
AgentList

AgentList 是最全面的 AI Agent 开源项目导航站,发现、对比 LangChain、CrewAI 等顶级 Agent 框架,助力开发者选择最佳工具。

快速链接

  • 项目列表
  • 精选文章
  • 分类浏览

联系我们

  • 关于我们
  • 隐私政策
  • 联系我们

© 2026 AgentList. 保留所有权利。

Made with for the open source community