Vigil
不活跃简介
Vigil 是一个 LLM 安全检测工具,能够识别提示注入、越狱攻击和其他潜在危险的 LLM 输入,通过多维度分析提供实时安全防护。
Vigil 是一个 LLM 安全检测工具,能够识别提示注入、越狱攻击和其他潜在危险的 LLM 输入,通过多维度分析提供实时安全防护。
高级提示注入防御系统,支持多语言检测、严重性评分和安全审计,保护 AI 智能体免受恶意输入攻击。
为 LLM 提示注入攻击与防御提供全面基准测试的开源项目,系统评估不同攻击策略和防御机制的有效性。
易用的 LLM 提示注入检测和输入净化 Python 包,支持多种检测方法和自定义规则。
NVIDIA NeMo Guardrails 是一个开源工具包,用于为基于 LLM 的对话系统添加可编程的安全护栏,支持话题控制、安全防护和对话引导。