AgentList
首页项目文章关于
探索项目
首页项目文章关于
探索项目
首页 / 项目 / LLM Guard

LLM Guard

不活跃
GitHub Python MIT

简介

LLM 交互安全工具包,提供提示词注入检测、敏感信息脱敏、内容安全审计等防护能力,保障生产环境 LLM 调用的安全性。

标签

security llm python testing prompt-engineering

分类

📊 可观测性
访问 GitHub 访问官网

项目指标

Stars 2.8k
Forks 375
Watchers 2.8k
Issues 36
创建时间 2023年7月27日
最近提交 2025年12月15日

部署方式

本地部署

相关项目

Rebuff

1.5k · TypeScript
不活跃

针对 LLM 的提示词注入检测器,结合启发式规则、向量相似度和语言模型多重防御策略,有效识别和阻止恶意提示注入攻击。

securityllmtesting +2

PrompToMatix

948 · Python
不活跃

Salesforce AI Research 推出的自动提示词优化框架,利用 LLM 自动搜索和优化提示词以提升模型性能。

prompt-engineeringevaluationllm +1

Purple Llama

4.1k · Python
活跃

Meta's set of tools to assess and improve LLM security, including safety benchmarks, prompt injection detection, and output auditing to help evaluate and enhance the safety of large language models.

securityevaluationpython +2

Prompt Ops

800 · Python
活跃

An open-source tool from Meta for LLM prompt optimization. Automates the process of continuously improving and refining LLM prompts.

prompt-engineeringllmtools +2
AgentList

开源机器人/Agent 项目导航站

快速链接

  • 项目列表
  • 精选文章
  • 分类浏览

联系我们

  • 关于我们
  • 隐私政策
  • 联系我们

© 2026 AgentList. 保留所有权利。

Made with for the open source community