RAGatouille
轻松使用和训练最先进的后期交互检索方法(ColBERT),模块化设计,可将 ColBERT 模型集成到任何 RAG 管道中,显著提升检索精度。
检索增强生成相关工具
轻松使用和训练最先进的后期交互检索方法(ColBERT),模块化设计,可将 ColBERT 模型集成到任何 RAG 管道中,显著提升检索精度。
展示 RAG、智能体、工作流和其他 AI 用例的项目合集,提供丰富的实践示例和教程资源。
可扩展至 350 万上下文 token 的记忆智能体框架,附带用于任意智能体工作流 RL 训练的训练框架,解决长上下文记忆难题。
智源研究院开源的 BGE 系列嵌入模型与检索工具,提供业界领先的中英文文本嵌入与重排序模型,广泛应用于 RAG 系统和 AI Agent 检索链路。
LightRAG 是一个简洁高效的 RAG 框架,使用图结构增强检索效果,发表于 EMNLP 2025。
全模态 RAG 框架,支持文本、图像、表格、公式等多种文档格式的检索增强生成,实现统一的知识问答能力。
使用 Rust 从零构建的开源图向量数据库,融合图数据库与向量检索能力,为 AI Agent 提供同时支持知识图谱和语义搜索的统一存储方案。
AI 驱动的智能问答引擎,支持多模型集成、联网搜索和本地知识库,提供类似 Perplexity 的搜索体验。
AutoRAG 是开源 RAG 评估与优化框架,采用 AutoML 风格自动化流程,帮助开发者自动搜索最佳 RAG 管线配置并进行基准评测。
VectorAdmin 是通用向量数据库管理工具,支持 Pinecone、Chroma、Qdrant、Weaviate 等主流向量数据库的统一管理,提供直观的 Web 界面进行数据导入、查询和维护。
全面展示各种高级检索增强生成(RAG)技术的教程合集,每项技术配有详细的 Notebook 教程和代码示例,涵盖从基础到前沿的 RAG 实现方案。
受人类长期记忆启发的 RAG 框架(NeurIPS 2024),结合知识图谱与个性化 PageRank 实现 LLM 的持续知识整合。
UltraRAG 是一个低代码的 MCP 框架,用于构建复杂和创新的 RAG 管道。通过可视化界面和 MCP 协议集成,开发者可以快速搭建从数据摄取、分块、检索到生成的完整 RAG 系统。
KAG 是基于 OpenSPG 引擎和 LLM 的逻辑形式引导推理与检索框架,用于构建专业领域知识库的逻辑推理和事实问答解决方案,有效克服传统 RAG 向量相似度计算模型的不足。
Quivr 是一个开箱即用的 RAG 框架,支持将任意文件转化为知识库并与 GenAI 应用集成。兼容多种 LLM 和向量数据库,开发者只需专注于产品本身,无需从头构建 RAG 管道。
生产级 Agentic RAG 系统,提供 RESTful API 和完整的多模态文档解析、混合搜索、知识图谱构建能力,支持 Agent 化的检索增强生成流程。
100 多个可直接运行的 AI 智能体与 RAG 应用合集,涵盖克隆、定制和部署,是快速上手构建 LLM 应用的绝佳参考。
EmbedAnything 是一个用 Rust 构建的高性能嵌入推理和索引框架,提供模块化、内存安全的 RAG 数据摄取和索引管道,支持本地和云端部署。
Vectra 是基于本地文件的 Node.js 向量数据库,提供类似 Pinecone 的功能特性,支持语义搜索和文档嵌入,无需外部服务依赖,适合 Node.js 环境下的 RAG 应用开发。
LLM 驱动的 A/H/美股智能分析器,集成多数据源行情、实时新闻、LLM 决策仪表盘和多渠道推送,零成本定时运行。
Unstract 是一个由 LLM 驱动的非结构化数据提取平台,专为 API 部署和 ETL 管道工作流而设计。支持从文档、PDF、图片等非结构化数据源中智能提取结构化信息,构建自动化数据处理管道。
SQL驱动的RAG引擎,在查询时自动构建知识图谱,将SQL查询能力与RAG检索增强生成深度结合,提供高效的知识检索体验。
DeepLake 是面向 AI Agent 的数据运行时,提供无服务器 Postgres 和多模态数据湖,支持可扩展的数据检索与训练。专为 AI 智能体场景设计,统一向量存储、数据集管理和流式加载。
开源 RAG 平台,内置引用追踪、深度研究、22 种文件格式支持、分区管理和 MCP 服务器等功能。
多模态多 Agent 文档理解框架,利用多个专业 Agent 协作完成复杂文档的分析和理解任务。
开源的 AI Agent 上下文检索层,支持从多种数据源自动提取、索引和检索结构化上下文信息,帮助 AI Agent 更准确地理解和利用企业知识库。
阿里巴巴开源的轻量级高性能进程内向量数据库,采用 C++ 核心实现,支持 Node.js 和 Python 绑定,适用于 RAG、Agent 记忆和向量检索场景。
Crawlee 是一个面向 Node.js 的 Web 爬取和浏览器自动化库,支持 Puppeteer、Playwright、Cheerio 等多种引擎,专为构建可靠的爬虫而设计,可提取 HTML、PDF 等数据用于 AI、LLM 和 RAG 应用。
Embedding Atlas 是 Apple 开源的嵌入向量可视化工具,支持大规模嵌入数据的交互式探索、交叉过滤和语义搜索。可帮助开发者理解和调试嵌入模型、向量检索和 RAG 系统的行为。
面向文档的 AI 助手平台,支持私有化部署,内置 Agent 构建器、深度研究、文档分析和多模型支持,适用于企业知识检索和智能问答场景。
sqlite-vec 是一个 SQLite 扩展,为 SQLite 添加向量搜索能力。支持 float32 和 int8 向量,可嵌入任意应用,是 RAG 应用和本地 AI Agent 向量检索的轻量级解决方案。
将 PDF、文档和图片转换为结构化数据的文档处理管道,支持表格识别、阅读顺序还原和 Markdown 输出。
OpenLLM 是一个开源 LLM 部署平台,可将 DeepSeek、Llama 等任意开源模型以 OpenAI 兼容的 API 端点形式部署到云端。支持模型微调、量化和分布式推理,简化生产环境中的大模型运维。
WrenAI 是一个开源的 Text-to-SQL 和 Text-to-Chart GenBI Agent,内置语义层,支持用自然语言查询数据库,自动生成 SQL 语句和可视化图表,兼容 PostgreSQL、BigQuery、Snowflake 等十余种数据源。
开源企业级 AI 知识库和 MCP 管理平台,集成知识检索、模型管理和 Agent 对话功能,支持多租户部署和多种 LLM 后端,适合企业级 AI 应用搭建。
Langchain-Chatchat 是一个基于 Langchain 和多种大语言模型的本地知识库 RAG 与 Agent 应用平台,支持 ChatGLM、Qwen、Llama 等模型,提供对话、知识库管理、Agent 调用等功能。
轻量级文档分块库,专为快速、高效和稳健的 RAG 管道设计,支持多种分块策略和嵌入模型,显著提升检索增强生成效果。
Chroma 是一个开源的 AI 原生嵌入式数据库,专为构建 LLM 应用而设计。提供简单的 API 来存储嵌入向量、执行相似度搜索,是构建 RAG 应用的理想选择。
CodeFuse-muAgent 是一个由知识图谱引擎驱动的创新 Agent 框架,融合 EKG(企业知识图谱)技术,支持多 Agent 协作、RAG 增强检索和工具学习。
Contextal 是一个上下文管理与检索增强工具,适合在多轮 Agent、长对话和复杂知识注入场景中提升上下文组织和调用质量。
CozoDB 是一个事务型关系图向量数据库,使用 Datalog 查询语言,专为 AI 应用设计,支持图遍历、向量搜索和关系查询的统一处理。
Crawl4AI 是面向 LLM 与 Agent 的网页抓取工具,提供结构化提取、站点遍历、内容清洗与爬取控制能力,适合作为 Agent 获取外部网页知识的入口层。
全面的提示工程指南,涵盖论文、教程、笔记本和资源,涉及提示工程、上下文工程、RAG 和 AI 智能体等核心主题。
Databend 是一个面向 AI Agent 的现代数据仓库,统一了分析、搜索和 AI 能力。支持 Python 沙箱、向量搜索和全文搜索,可直接在 S3 上运行,为 AI 智能体提供即时的数据查询与分析能力。
开源 LLM DevOps 平台,提供 GenAI 工作流、RAG、Agent、模型管理、评估、数据集管理和企业级系统管理等一站式 AI 应用开发能力。
JVector 是由 DataStax 开发的高级嵌入式向量搜索引擎,纯 Java 实现,支持高效 ANN 搜索,适用于 JVM 环境下的 RAG 和 AI 应用。
从零开始的智能体原理与实践教程,系统讲解 AI Agent 核心概念、框架使用和项目实战。
Haystack 是企业级 RAG 与搜索应用框架,支持文档处理、检索、生成与评估全链路。
Trieve 是一个集搜索、推荐、RAG 和分析于一体的全功能平台,通过 API 提供服务。基于 Rust 构建,支持向量搜索、全文搜索和语义重排序,适合构建企业级 AI 搜索和检索应用。
DingoDB 是一个多模态向量数据库,支持使用兼容 MySQL 的统一 SQL 对结构化和非结构化数据进行 upsert 操作和向量查询,满足高并发和超低延迟的场景需求。
Docling 是 IBM 开源的文档解析工具,支持 PDF、Word、PPT、HTML 等格式转换为 AI 可用结构化数据,专为 GenAI 和 RAG 管道设计。
Embedchain 是一个面向 AI Agent 的通用记忆层,支持将多种数据源快速接入 LLM,构建具有上下文记忆的 AI 应用。
MTEB(Massive Text Embedding Benchmark)是一个大规模文本嵌入基准测试框架,覆盖分类、检索、聚类、重排序等多项任务,用于评估和选择 RAG 系统中的最佳嵌入模型。
Endee 是一个高性能向量数据库,通过优化的索引和执行引擎,在单节点上可处理多达十亿级向量数据,提供显著的性能提升,同时提供云端版本。
DB-GPT 是开源的 Agentic AI 数据助手框架,集成多 Agent 协作、RAG、AWEL 工作流引擎,专为构建 AI+Data 应用设计。
Ragas 是一个用于评估 RAG(检索增强生成)系统的框架。提供多种评估指标,包括忠实度、答案相关性、上下文精确度等,帮助开发者优化 RAG 应用性能。
基于 GraphBLAS 的高性能图数据库,专为 LLM 和 GraphRAG 场景优化,支持实时知识图谱构建与查询,为 AI Agent 提供图结构化的知识检索能力。
基于向量数据库与 GPT 的通用本地知识库方案,提供文档上传、向量化存储、语义检索和智能问答的一站式解决方案,适合快速搭建私有化知识库。
基于视觉模型的 OCR 与文档提取工具,支持将 PDF、图片等文档高效转换为结构化文本。
Graphiti 是面向 Agent 记忆的时序知识图谱引擎,帮助系统持续沉淀长期上下文。
Agentic RAG for Dummies 是一个教学性质的 Agentic RAG 项目,用简洁的代码展示了如何构建具有 Agent 能力的 RAG 系统。包含路由、检索、评估和迭代优化等核心概念,是入门 Agentic RAG 的优秀参考。
TrustRAG 是一个注重可靠输入与可信输出的 RAG 框架,提供文档解析、分块、检索、重排序等完整 RAG 管线组件,支持多种检索策略和评估方法。
Google Gemini 官方提供的全栈 LangGraph 快速入门项目,展示如何使用 Gemini 模型和 LangGraph 构建生产级 AI Agent 应用。包含 React 前端和 Python 后端完整实现。
Google 开源的 Python 库,用于利用 LLM 从非结构化文本中精确提取结构化信息,支持源文本标注和交互式可视化,适用于数据标注和知识抽取场景。
Graphlit 平台的 AI Agent 工具库,为 Python Agent 提供知识检索和内容处理能力。
PromptTools 是开源的提示词测试与实验工具集,支持多种 LLM(OpenAI、LLaMA)和向量数据库(Chroma、Weaviate、LanceDB),帮助开发者系统化评估和优化 RAG 系统。
企业级 Spring AI 平台,集成 RAG、工具调用、异步数据摄取、JWT/RBAC 安全和可观测性能力。
HuggingFace 开源的文本嵌入模型推理服务,使用 Rust 构建以实现高性能推理,支持多种嵌入模型,是构建 RAG 系统和向量检索管道的核心基础设施组件。
Infinity 是 AI 原生数据库,提供极快的稠密向量、稀疏向量、张量与全文混合搜索,专为 LLM 应用和 RAG 系统设计。
领先的开源 RAG 引擎,融合前沿 RAG 技术与 Agent 能力,为 LLM 提供高质量的上下文层,支持深度文档理解、知识库管理和智能检索。
Instill Core 是一个全栈 AI 基础设施平台,提供数据管理、模型编排和管道自动化。通过可视化管道编辑器,开发者可以快速构建从数据摄取、模型推理到结果输出的端到端 AI 工作流。
Intel 开源的大语言模型推理加速与微调工具,支持 LLaMA、Qwen、DeepSeek 等主流模型在 Intel GPU 上高效运行,无缝集成主流 Agent 框架。
基于 LLM 的多 Agent 搜索引擎框架,类似 Perplexity.ai Pro 和 SearchGPT,实现智能 Web 搜索。
Production Agentic RAG Course 是一个面向生产环境的 Agentic RAG 课程项目,教授如何构建可扩展、可靠的 RAG Agent 系统。涵盖索引策略、检索优化、Agent 路由和监控等生产级实践。
HyperDB 是一个面向 LLM Agent 设计的超快速本地向量数据库,提供轻量级的向量存储和相似度搜索能力,适合嵌入到 Agent 应用中作为即时记忆和知识检索组件。
模块化RAG系统与MCP Server架构的结合,通过Skill引导AI按照规范逐步完成代码,实现100%由AI生成的RAG系统。
Jina AI Serve 是一个云原生多模态 AI 应用构建框架,支持构建 RAG 管道、Agent 系统和多模态搜索应用。
JupyterLab 官方 AI 扩展,将 AI Agent 能力引入计算笔记本环境。支持代码生成、错误解释、文档问答和多种 LLM 提供商集成,提升数据科学工作流效率。
Sparrow 是一个结构化数据提取工具,支持通过机器学习、LLM 和视觉语言模型从文档中提取结构化数据并进行指令调用,适用于 RAG 管道中的文档解析环节。
嵌入式属性图数据库,内置向量搜索和全文检索能力,原生支持 Cypher 查询语言,适用于知识图谱构建和 AI Agent 的结构化知识检索。
FastGPT 是一个基于大语言模型的知识库平台,提供数据处理、RAG 检索和可视化 AI 工作流编排等开箱即用的能力,可轻松开发和部署复杂问答系统。
开源的多模态嵌入式向量检索库,支持零服务器部署,提供 Lance 列式格式实现高效向量搜索和过滤,适用于 AI Agent 长期记忆与 RAG 场景。
一站式检索增强生成(RAG)平台,集成 Langflow、Docling 和 OpenSearch,提供从文档解析到向量检索再到生成的完整流水线,支持多种模型和向量数据库。
Lantern 是一个 PostgreSQL 向量数据库扩展,为 PostgreSQL 添加高性能向量搜索能力,支持生成和索引嵌入向量,便于在现有数据库基础设施上构建 AI 应用。
Layra 是一个企业级智能系统解决方案,结合可视化 RAG 和多步骤 Agent 工作流编排,提供开箱即用的文档解析、知识库构建和智能问答能力。
基于 Spring Boot、Java 21 和 Spring AI 的 AI Agent 实战项目,覆盖 RAG、Tool Calling、MCP 和 ReAct 自主规划智能体。
llmware 是一个面向企业的统一 RAG 框架,支持小型专用模型的快速部署,提供知识图谱、文档解析、向量索引和 Agent 工具链,适合构建私有化合规的 AI 应用。
Mem0 是面向 AI Agent 的长期记忆层,支持跨会话记忆管理与个性化上下文检索。
MemVid 是面向 AI Agent 的长期记忆层,利用视频编码实现轻量级单文件存储,替代复杂的 RAG 管线,提供即时检索能力。
Firecrawl 是专为 AI Agent 设计的 Web 数据 API,可将网页转换为结构化的 LLM 友好数据,支持爬取、抓取和搜索。
微软开源的基于知识图谱的模块化检索增强生成(RAG)系统,利用大语言模型从文本中提取结构化知识图谱,支持全局和局部社区摘要查询。
Milvus 是一个高性能的开源向量数据库,专为 AI 应用程序构建。支持大规模向量数据的存储、索引和相似度搜索,适用于 RAG、推荐系统等场景。
LocalAI 是一个开源的本地 AI 推理引擎,支持在任意硬件上运行 LLM、视觉、语音、图像和视频模型,无需 GPU。提供与 OpenAI 兼容的 API,可完全本地化部署,保障数据隐私。
通用文档格式转换工具,支持从 PDF、图片、Word、PPT 等提取数据并转换为 Markdown、JSON、CSV 等多种格式。
Neo4j 官方推出的 GraphRAG Python SDK,提供知识图谱构建、向量检索与图谱查询的一体化工具链,支持 Agent 化的图检索增强生成流程。
Neo4j 开源的基于图推理记忆的 AI Agent 工具,可在数秒内搭建图数据库,为 Agent 提供知识图谱驱动的记忆和推理能力。
QAnything 是网易有道开源的本地知识库问答系统,支持任意格式文件,提供离线 RAG 能力,可快速搭建私有知识问答。
集成语义搜索、LLM 编排和语言模型工作流的全能 AI 框架,支持 Agent、RAG 和向量数据库
基于 LangGraph 的多智能体 RAG 示例项目,展示多个 Agent 如何协作完成检索、路由、推理和答案生成。
完全本地运行的搜索聚合器,使用 LLM Agent 链式协作来回答用户问题。无需 OpenAI 或 Google API 密钥,所有搜索和推理过程都在本地完成,注重隐私保护。
用于衡量 AI Agent 和工作流可靠性的工具,提供认知测量、Noetic RAG、哨兵门控和 grounded calibration 等能力。
开源 AI 平台,提供企业级 AI 聊天、高级 RAG 和 AI 搜索功能,兼容所有主流 LLM。
MinerU 是一个高质量文档解析工具,能够将 PDF 等复杂文档转化为 LLM 友好的 Markdown 和 JSON 格式,为 RAG 流程和 Agentic 工作流提供文档数据预处理能力。
Orama 是一个轻量级(不到 2KB)的全文搜索和 RAG 管道引擎,可运行在浏览器、服务器或边缘网络。支持全文搜索、向量搜索和混合搜索,适合构建 AI 驱动的搜索体验。
深入讲解 LLM、RAG 和真实 AI 智能体应用的教程合集,包含丰富的 Notebook 示例,是学习 AI 工程化实践的优质资源。
即开即用的 RAG 和 AI 管道云模板,支持 Docker 部署,实时同步 Sharepoint、Google Drive、S3、Kafka 等数据源。
Pathway 是一个 Python ETL 框架,支持流处理、实时分析、LLM 管道和 RAG 应用构建。
AI 驱动的 PDF 学术论文翻译工具,完整保留原始排版格式,支持 Google/DeepL/Ollama/OpenAI 等多种翻译引擎。
PostgreSQL 的开源向量相似性搜索扩展,为关系型数据库原生支持向量存储与 ANN 检索,是构建 AI Agent 记忆和 RAG 系统的基础设施组件。
chromem-go 是用 Go 实现的可嵌入式向量数据库,提供类似 Chroma 的接口,零第三方依赖,支持内存存储和可选持久化,适合轻量级 RAG 应用。
由Pinecone驱动的检索增强生成(RAG)框架和上下文引擎。提供开箱即用的RAG解决方案,支持知识库构建、语义搜索、上下文管理。
高性能 Python PDF 处理库,支持数据提取、分析、转换和操作,是 RAG 系统中文档解析的核心工具。
Qdrant 是高性能向量数据库,广泛用于 RAG 检索层与 Agent 记忆检索场景。
基于 RAG 技术的智能对话系统,提供完整的 Web UI 界面,支持文档上传、知识库管理和智能问答,可快速搭建企业级知识检索服务。
RAGapp 是一个面向企业的 Agentic RAG 解决方案,提供开箱即用的检索增强生成能力,支持在 Docker 中快速部署,简化企业级 RAG 应用的构建和管理。
Reor 是一个本地优先的 AI 个人知识管理应用,所有数据和处理均在本地完成。支持 RAG 检索增强生成、语义搜索和知识图谱,帮助用户高效管理和利用个人知识库,同时确保数据隐私。
LlamaIndex 是一个数据框架,用于构建 LLM 应用程序的数据连接层。它提供了强大的 RAG 能力,支持多种数据源和向量数据库。
AI 驱动的舆情监控与热点追踪工具,支持多平台热点聚合、RSS 订阅、关键词筛选、AI 智能分析与简报推送,集成微信、飞书、钉钉、Telegram 等多种通知渠道,并支持 MCP 架构接入。
跨平台超高性能 SQLite 向量搜索扩展,为嵌入式数据库带来向量检索能力,适用于本地优先的 RAG 应用和 Agent 记忆存储。
Superlinked Inference Engine 是一个开源的嵌入推理服务器和生产集群,支持向量嵌入、重排序和信息提取,为 RAG 系统提供高性能的数据处理管道。
本地优先的 LLM Wiki 和知识图谱构建器,可作为 RAG 知识库、Agent 记忆库和 AI 第二大脑使用。
GPT Researcher 是一个自主研究 Agent,能够自动搜集、整理和分析信息,生成详尽的研究报告。
腾讯开源的 LLM 驱动的文档理解与语义检索框架,基于 RAG 范式实现深度文档分析和上下文感知问答。
面向人机协作知识工作的语义知识平台,可作为 Wiki、知识库、上下文图谱和 Agentic Memory 使用。
开源 LLM 工具包,用于构建可信的 LLM 应用,包含 TigerArmor(AI 安全防护)、TigerRAG(嵌入与检索增强生成)和 TigerTune(微调优化)三大模块。
ColiVara 是一套基于视觉嵌入的文档检索服务,无需 OCR 或文本提取,直接通过视觉模型对文档进行存储、搜索和检索,在文本和视觉文档上均达到领先的检索性能。
AI Agent 记忆知识引擎,仅需 6 行代码即可为 Agent 构建知识图谱和记忆层,支持图数据库、向量存储等多种后端,提供知识提取、推理和检索能力。
Cognita 是面向生产环境的模块化 RAG 框架,由 TrueFoundry 开发,支持灵活的文档解析、向量存储与检索管线编排,可构建可扩展的知识问答系统。
TruLens 是一个用于评估和跟踪 LLM 应用的开源工具。提供针对 RAG 应用的专门评估功能,包括上下文相关性、接地性和答案相关性等评估维度。
图原生的上下文开发平台,提供知识图谱构建、语义检索和可移植的上下文核心,支持 RDF、SPARQL 等标准协议,为 AI Agent 提供结构化知识的存储、丰富和检索能力。
DocETL 是一个由 LLM 驱动的智能数据处理和 ETL 系统,采用 Agent 架构实现复杂数据转换。支持自然语言定义数据处理管道,将非结构化数据转化为可分析的结构化输出。
Unstructured 提供文档解析与清洗能力,是 RAG 数据摄取和预处理环节常用的开源组件。
USearch 是一个高性能的开源向量搜索和聚类引擎,支持 C++、Python、JavaScript、Rust、Java、Swift、C#、Go 等多种语言绑定,适用于大规模向量检索场景。
Context7 是 Upstash 面向 Agent 场景打造的上下文工程工具,帮助应用管理长上下文、检索注入与历史压缩,适合提升对话型 Agent 的上下文利用效率。
基于 LLM 和智能体检索的文本转 SQL 生成工具,支持通过自然语言与 SQL 数据库对话,精准生成查询语句。
Vald 是一个高度可扩展的分布式向量搜索引擎,基于 Cloud Native 架构设计,支持海量向量数据的高性能近似最近邻搜索。
vLLM 是一个高吞吐量、低内存占用的 LLM 推理与服务引擎,支持连续批处理、PagedAttention 等优化技术,广泛用于生产环境中的大模型部署。
基于 Weaviate 向量数据库的开源 RAG 聊天机器人,支持多种数据导入方式、多 LLM 后端和多种嵌入模型,开箱即用的检索增强生成解决方案。
Weaviate 是一个开源的向量数据库,支持存储对象和向量,允许将向量搜索与结构化过滤相结合。内置多种向量化模块,支持多模态数据搜索。
基于 Java 21、Spring Boot、Spring AI、RAG、Tool Calling 和 MCP 的通用 AI 智能体,支持多轮对话和持久化记忆。
集成 LightRAG 知识库与知识图谱的多租户 Agent 管理平台,基于 LangChain、Vue 和 FastAPI 构建,支持 DeepAgents、MinerU PDF 解析、Neo4j 图数据库和 MCP 协议。
LEANN 是一个高效的个人设备端 RAG 引擎,在保持 97% 存储压缩的同时实现快速、准确的检索增强生成。完全本地化运行,保障数据隐私,适合在消费级硬件上部署 RAG 应用。
极简主义 AI 搜索引擎,帮助用户在互联网上查找信息并引用来源,基于 Vercel AI SDK 构建,支持多种 AI 模型。
VectorDBBench 是向量数据库性能基准测试工具,支持对主流向量数据库(Milvus、Qdrant、Chroma、Weaviate 等)进行标准化性能评测和对比分析。
深入解析 Agent 记忆的四层架构,结合向量检索和记忆压缩的实战代码,帮你构建可扩展的 Agent 长期记忆系统。
深入学习如何使用 Letta(原 MemGPT)构建具有长期记忆的有状态 AI Agent,解决 LLM 的上下文窗口限制问题。
面向生产场景,总结使用 Qdrant 构建 RAG 检索层时的索引、过滤、重排与评估策略。
大多数 RAG 管线在检索环节就失败了——根因是 chunking 策略。本文从五种分块方法、混合搜索、Reranking 到完整生产管线,给出可落地的决策框架。
学习如何使用 Ragas 和 DeepEval 评估 RAG 系统的质量,包括忠实度、答案相关性、上下文精确度等关键指标的测量方法。
深入解析检索增强生成(RAG)技术,教你如何为 AI Agent 构建私有知识库,提升回答的准确性和可靠性。