AgentList
首页项目文章关于
探索项目
首页项目文章关于
探索项目
首页 / 项目 / Prompt Injection Defenses

Prompt Injection Defenses

不活跃
GitHub

简介

Every practical and proposed defense against prompt injection — a comprehensive reference for LLM security practitioners.

标签

security llm prompt-engineering

分类

🛡️ 安全护栏
访问 GitHub

项目指标

Stars 677
Forks 50
Watchers 677
Issues 7
创建时间 2024年4月1日
最近提交 2025年2月22日

部署方式

本地部署

相关项目

LLM-Jailbreaks

603 ·
不活跃

A comprehensive collection of LLM jailbreak techniques and prompts for ChatGPT, Claude, Llama, and other models — essential reference for LLM security research.

llmsecurityprompt-engineering

LLM Guard

2.8k · Python
不活跃

LLM 交互安全工具包,提供提示词注入检测、敏感信息脱敏、内容安全审计等防护能力,保障生产环境 LLM 调用的安全性。

securityllmpython +2

Rebuff

1.5k · TypeScript
不活跃

针对 LLM 的提示词注入检测器,结合启发式规则、向量相似度和语言模型多重防御策略,有效识别和阻止恶意提示注入攻击。

securityllmtesting +2

AgentShield

510 · TypeScript
活跃

AI agent security scanner that detects vulnerabilities in agent configurations, MCP servers, and tool permissions. Available as CLI, GitHub Action, and GitHub App integration.

typescriptsecurityllm +2
AgentList

开源机器人/Agent 项目导航站

快速链接

  • 项目列表
  • 精选文章
  • 分类浏览

联系我们

  • 关于我们
  • 隐私政策
  • 联系我们

© 2026 AgentList. 保留所有权利。

Made with for the open source community