AgentList
首页项目文章关于
探索项目
首页项目文章关于
探索项目
项目 Vigil

Vigil

不活跃
GitHub Python Apache-2.0

简介

Vigil 是一个 LLM 安全检测工具,能够识别提示注入、越狱攻击和其他潜在危险的 LLM 输入,通过多维度分析提供实时安全防护。

标签

prompt-injection security llm-safety detection guardrails

分类

🛡️ 安全护栏
访问 GitHub 访问官网

项目指标

Stars 478
Forks 54
Watchers 478
Issues 17
创建时间 2023年9月4日
最近提交 2024年1月31日

部署方式

本地部署

相关项目

Prompt Guard

152 · Python
活跃

高级提示注入防御系统,支持多语言检测、严重性评分和安全审计,保护 AI 智能体免受恶意输入攻击。

prompt-injectionsecurityguardrails +2

Open-Prompt-Injection

439 · Python
不活跃

为 LLM 提示注入攻击与防御提供全面基准测试的开源项目,系统评估不同攻击策略和防御机制的有效性。

prompt-injectionbenchmarkllm-safety +2

Pytector

40 · Python
活跃

易用的 LLM 提示注入检测和输入净化 Python 包,支持多种检测方法和自定义规则。

prompt-injectiondetectionsanitization +2

NeMo Guardrails

6.1k · Python
活跃

NVIDIA NeMo Guardrails 是一个开源工具包,用于为基于 LLM 的对话系统添加可编程的安全护栏,支持话题控制、安全防护和对话引导。

guardrailsllm-safetynvidia +2
AgentList

AgentList 是最全面的 AI Agent 开源项目导航站,发现、对比 LangChain、CrewAI 等顶级 Agent 框架,助力开发者选择最佳工具。

快速链接

  • 项目列表
  • 精选文章
  • 分类浏览

联系我们

  • 关于我们
  • 隐私政策
  • 联系我们

© 2026 AgentList. 保留所有权利。

Made with for the open source community