一个完全本地化的网络研究和报告编写助手
Ollama Deep Researcher 是一个由 LangChain 团队开发的开源项目,旨在提供一个完全本地化的网页研究与报告撰写助手。该工具结合了本地大语言模型(LLM)和网页搜索引擎,自动化地进行信息检索、总结和迭代优化,最终生成包含引用来源的 Markdown 格式研究报告。
🔍 项目核心功能
- 完全本地运行:利用 Ollama 或 LMStudio 托管的本地 LLM,无需将数据发送到云端,保障数据隐私。
- 智能迭代研究:通过多轮迭代(默认3轮,可配置)自动优化搜索策略,填补知识空白。
- 多搜索引擎支持:默认使用 DuckDuckGo,也可配置 Tavily 或 Perplexity 作为搜索引擎。
- 可视化研究流程:通过 LangGraph Studio 实时监控研究进程,包括搜索结果、摘要和最终报告的生成过程。
- 学术级输出:自动生成带有完整引用的 Markdown 格式研究报告,方便进一步编辑和分享。
⚙️ 工作流程概述
- 生成搜索查询:用户输入研究主题后,LLM 生成初始的网页搜索查询。
- 获取并总结搜索结果:通过配置的搜索引擎获取相关网页内容,并由 LLM 进行摘要。
- 识别知识空白并迭代优化:LLM 分析摘要,识别信息缺口,生成新的搜索查询,重复上述步骤进行优化。
- 生成最终报告:经过多轮迭代后,生成包含所有引用来源的 Markdown 格式研究报告。
🚀 快速上手指南(以 Mac 为例)
- 安装 Ollama 应用:从 Ollama 官方网站 下载并安装适用于 Mac 的应用。
- 拉取本地 LLM 模型:例如,使用以下命令拉取 DeepSeek R1 模型:
ollama pull deepseek-r1:8b
(GitHub – langchain-ai/local-deep-researcher: Fully local web research and report writing assistant)
- 配置搜索引擎 API(可选):注册 Tavily 并获取 API 密钥,设置环境变量
TAVILY_API_KEY
。 - 克隆项目并启动服务:
git clone https://github.com/langchain-ai/ollama-deep-researcher.git cd ollama-deep-researcher python -m venv .venv source .venv/bin/activate pip install -e . langgraph dev
(GitHub – langchain-ai/ollama-deep-researcher: Fully local web research and report writing assistant)
- 访问 LangGraph Studio:在浏览器中打开
http://127.0.0.1:2024
,进入 LangGraph Studio,配置研究参数并开始使用。 (올라마 딥 리서치, 오픈AI 딥 리서처의 오픈 소스 대안)
🧠 项目灵感与技术背景
Ollama Deep Researcher 的设计灵感来源于 IterDRAG 方法,该方法通过将查询分解为子查询,逐步获取和总结信息,构建完整的知识图谱。该项目利用 LangGraph 构建研究流程图,结合本地 LLM 实现自动化的信息检索与总结。 (ollama-deep-researcher/README.md at main · langchain-ai/ollama-deep-researcher · GitHub, [AI 오픈소스] Ollama Deep Researcher – 최강의 로컬 웹 리서치 및 보고서 작성 도우미)
📁 项目资源与链接
- GitHub 仓库: (GitHub – langchain-ai/ollama-deep-researcher: Fully local web research and report writing assistant)
- 视频教程:项目提供了从零开始构建和使用的详细视频教程,帮助用户快速上手。
- LangGraph Studio:通过可视化界面,用户可以实时监控研究过程,调整参数,查看中间结果。
Github:https://github.com/langchain-ai/ollama-deep-researcher