LLM Security Prompt Injection
活跃简介
通过二分类方法研究大语言模型安全性,对提示注入攻击进行检测和分类分析。
通过二分类方法研究大语言模型安全性,对提示注入攻击进行检测和分类分析。
易用的 LLM 提示注入检测和输入净化 Python 包,支持多种检测方法和自定义规则。
高速 AI Agent 信任层,提供提示注入检测、PII 过滤和内容安全防护等安全护栏功能。
开源 LLM API 安全网关,提供提示注入检测、PII 脱敏、危险响应过滤等安全防护。
防御 Agentic AI 威胁的工作代码示例集,包括提示注入检测、Claude Code 安全配置和 Agent 访问控制。