AgentList
首页项目文章关于
探索项目
首页项目文章关于
探索项目
首页 / 项目 / Awesome-LLM-Safety

Awesome-LLM-Safety

正常
GitHub HTML

简介

A curated collection of safety-related papers, articles, and resources focused on Large Language Models — comprehensive reference for researchers and practitioners exploring LLM safety implications and advancements.

标签

llm security evaluation

分类

🛡️ 安全护栏
访问 GitHub

项目指标

Stars 1.8k
Forks 150
Watchers 1.8k
Issues 5
创建时间 2023年8月1日
最近提交 2026年3月15日

部署方式

本地部署

相关项目

Purple Llama

4.1k · Python
活跃

Meta's set of tools to assess and improve LLM security, including safety benchmarks, prompt injection detection, and output auditing to help evaluate and enhance the safety of large language models.

securityevaluationpython +2

PyRIT

3.7k · Python
活跃

The Python Risk Identification Tool for generative AI — an open-source framework by Microsoft for proactively identifying risks in generative AI systems through red teaming and automated probing.

pythonsecurityevaluation +2

AgentShield

510 · TypeScript
活跃

AI agent security scanner that detects vulnerabilities in agent configurations, MCP servers, and tool permissions. Available as CLI, GitHub Action, and GitHub App integration.

typescriptsecurityllm +2

PentestGPT

12.7k · Python
正常

基于大语言模型的自动化渗透测试 Agent 框架,利用 LLM 驱动安全测试和漏洞发现。

penetration-testingsecurityllm +2
AgentList

开源机器人/Agent 项目导航站

快速链接

  • 项目列表
  • 精选文章
  • 分类浏览

联系我们

  • 关于我们
  • 隐私政策
  • 联系我们

© 2026 AgentList. 保留所有权利。

Made with for the open source community