local-deep-research是一款开源的AI深度研究助手,支持完全本地运行保护隐私,也可以接入云端LLM。在SimpleQA基准测试中达到约95%的准确率,GitHub星标数6500+,被LangChain官方推广。
核心功能
深度研究能力
自动进行多轮搜索和分析,搜索网络、学术论文和用户自有文档,合成带正确引用的完整报告。提供20多种研究策略,包括快速事实查找、深度分析、学术研究等。
知识库构建
每次研究发现的来源可下载到加密库中,支持ArXiv学术论文、PubMed文章、网页等。自动提取文本、索引并使内容可搜索,下次研究时可同时查询自有文档和实时网络。
多种研究模式
- 快速摘要:30秒至3分钟获取带引用的答案
- 详细研究:结构化发现的全面分析
- 报告生成:带目录和章节的专业报告
- 文档分析:AI搜索私有文档
LangGraph Agent策略
最新的自主代理研究模式,LLM决定搜索什么、使用哪些专用引擎(arXiv、PubMed、Semantic Scholar等)以及何时合成结果。会自适应切换搜索引擎,收集来源比传统管道策略多得多。
支持的LLM
本地模型:Ollama、LM Studio、llama.cpp,支持Llama 3、Mistral、Gemma、DeepSeek、Qwen等
云端模型:OpenAI(GPT-4)、Anthropic(Claude)、Google(Gemini),通过OpenRouter支持100+模型
搜索源
免费:arXiv、PubMed、Semantic Scholar、Wikipedia、SearXNG、GitHub、Elasticsearch等
付费:Tavily、Google(SerpAPI)、Brave Search
安装方法
Docker Compose(最简单):
curl -O https://raw.githubusercontent.com/LearningCircuit/local-deep-research/main/docker-compose.yml
docker compose up -d
打开 http://localhost:5000 即可使用Web界面。
pip安装:
pip install local-deep-research
MCP Server集成(与Claude Desktop/Code配合):
pip install "local-deep-research[mcp]"
安全特性
- 每个用户独立的SQLCipher数据库,AES-256加密
- 无遥测、无分析、无追踪
- Docker镜像使用Cosign签名,包含SLSA证明和SBOM
- 通过OpenSSF Scorecard、CodeQL等安全扫描
性能基准
使用gpt-4.1-mini + SearXNG + focused_iteration策略时,准确率达90-95%。使用gemini-2.0-flash-001 + SearXNG时准确率82%。
适合谁
- 需要深度调研但注重隐私的研究人员
- 想要本地运行AI研究助手的开发者
- 需要搜索学术论文和自有文档的知识工作者
- 想要替代Perplexity等商业产品的用户
本文参考来源:GitHub – local-deep-research












GitHub – TauricResearch/TradingAgents


暂无评论内容