一个完全本地化的网络研究和报告编写助手

https://youtu.be/C_lJ2Utr83c

Ollama Deep Researcher 是一个由 LangChain 团队开发的开源项目,旨在提供一个完全本地化的网页研究与报告撰写助手。该工具结合了本地大语言模型(LLM)和网页搜索引擎,自动化地进行信息检索、总结和迭代优化,最终生成包含引用来源的 Markdown 格式研究报告。

🔍 项目核心功能

  • 完全本地运行:利用 Ollama 或 LMStudio 托管的本地 LLM,无需将数据发送到云端,保障数据隐私。
  • 智能迭代研究:通过多轮迭代(默认3轮,可配置)自动优化搜索策略,填补知识空白。
  • 多搜索引擎支持:默认使用 DuckDuckGo,也可配置 Tavily 或 Perplexity 作为搜索引擎。
  • 可视化研究流程:通过 LangGraph Studio 实时监控研究进程,包括搜索结果、摘要和最终报告的生成过程。
  • 学术级输出:自动生成带有完整引用的 Markdown 格式研究报告,方便进一步编辑和分享。

⚙️ 工作流程概述

  1. 生成搜索查询:用户输入研究主题后,LLM 生成初始的网页搜索查询。
  2. 获取并总结搜索结果:通过配置的搜索引擎获取相关网页内容,并由 LLM 进行摘要。
  3. 识别知识空白并迭代优化:LLM 分析摘要,识别信息缺口,生成新的搜索查询,重复上述步骤进行优化。
  4. 生成最终报告:经过多轮迭代后,生成包含所有引用来源的 Markdown 格式研究报告。

🚀 快速上手指南(以 Mac 为例)

  1. 安装 Ollama 应用:从 Ollama 官方网站 下载并安装适用于 Mac 的应用。
  2. 拉取本地 LLM 模型:例如,使用以下命令拉取 DeepSeek R1 模型:
    ollama pull deepseek-r1:8b

    (GitHub – langchain-ai/local-deep-researcher: Fully local web research and report writing assistant)

  3. 配置搜索引擎 API(可选):注册 Tavily 并获取 API 密钥,设置环境变量 TAVILY_API_KEY
  4. 克隆项目并启动服务
    git clone https://github.com/langchain-ai/ollama-deep-researcher.git
    cd ollama-deep-researcher
    python -m venv .venv
    source .venv/bin/activate
    pip install -e .
    langgraph dev

    (GitHub – langchain-ai/ollama-deep-researcher: Fully local web research and report writing assistant)

  5. 访问 LangGraph Studio:在浏览器中打开 http://127.0.0.1:2024,进入 LangGraph Studio,配置研究参数并开始使用。 (올라마 딥 리서치, 오픈AI 딥 리서처의 오픈 소스 대안)

🧠 项目灵感与技术背景

Ollama Deep Researcher 的设计灵感来源于 IterDRAG 方法,该方法通过将查询分解为子查询,逐步获取和总结信息,构建完整的知识图谱。该项目利用 LangGraph 构建研究流程图,结合本地 LLM 实现自动化的信息检索与总结。 (ollama-deep-researcher/README.md at main · langchain-ai/ollama-deep-researcher · GitHub, [AI 오픈소스] Ollama Deep Researcher – 최강의 로컬 웹 리서치 및 보고서 작성 도우미)

📁 项目资源与链接

Github:https://github.com/langchain-ai/ollama-deep-researcher

油管:https://youtu.be/C_lJ2Utr83c

了解 Tarogo Cloud Bloger & Shop 的更多信息

立即订阅以继续阅读并访问完整档案。

继续阅读

退出移动版