AgentList
首页项目文章关于
探索项目
首页项目文章关于
探索项目
首页 / 项目 / LangEvals

LangEvals

正常
GitHub Python MIT

简介

聚合多种语言模型评估器的统一平台,提供标准化的 LLM 评估接口和安全性检测能力。

标签

llm-evaluation safety-evaluation guardrails evaluation-framework

分类

🛡️ 安全护栏 📊 可观测性
访问 GitHub

项目指标

Stars 71
Forks 0
Watchers 0
Issues 0
创建时间 2025年1月1日
最近提交 2026年3月13日

部署方式

本地部署

相关项目

Inspect AI

1.9k · Python
活跃

英国 AI 安全研究所(AISI)开源的大语言模型评估框架,提供全面的模型能力评估工具,支持安全性和对齐性测试。

llm-evaluationai-safetyevaluation-framework +2

Guardrails AI

6.7k · Python
活跃

Guardrails AI 为大语言模型添加可编程的安全护栏,通过输入输出验证、结构化数据提取和自定义校验器确保 LLM 应用的可靠性和安全性。

guardrailsllm-safetyvalidation +2

NeMo Guardrails

6.0k · Python
活跃

NVIDIA NeMo Guardrails 是一个开源工具包,用于为基于 LLM 的对话系统添加可编程的安全护栏,支持话题控制、安全防护和对话引导。

guardrailsllm-safetynvidia +2

Garak

7.6k · HTML
活跃

NVIDIA 开源的 LLM 漏洞扫描器,可自动检测大语言模型中的安全漏洞、幻觉倾向、越狱风险和提示注入等安全问题,是 LLM 安全评估的核心工具。

llm-securityvulnerability-scannerllm-evaluation +2
AgentList

开源机器人/Agent 项目导航站

快速链接

  • 项目列表
  • 精选文章
  • 分类浏览

联系我们

  • 关于我们
  • 隐私政策
  • 联系我们

© 2026 AgentList. 保留所有权利。

Made with for the open source community