繁中

完全本地化的網絡研究和報告撰寫助理

Olama Deep Researcher是由LangChain團隊開發的一個開源項目,旨在提供完全本地化的網絡研究和報告撰寫助理。該工具將本地大型語言模型(LLM)和網絡搜尋引擎相結合,自動執行信息檢索、總結和疊代優化,並最終生成包含引用來源的Markdown格式研究報告。

項目核心功能

  • 完全本地化運營:使用Olama或LMStudio託管的本地LLM來確保數據隱私,而無需將數據發送到雲。
  • 智能疊代研究:通過多輪疊代(默認3輪,可配置)自動優化搜索策略,以填補知識空白。
  • 多個搜尋引擎支持:默認使用DuckDuckGo,也可以將Tavily或Perplexity配置為搜尋引擎。
  • 可視化研究過程:通過LangShape Studio實時監控研究進展,包括生成搜索結果、摘要和最終報告。
  • 學術產出:自動生成Markdown格式的研究報告,並提供完整的引用,以供進一步編輯和共享。

工作流程概述

  1. 生成搜索查詢:用戶輸入研究主題後,LLM生成初始網絡搜索查詢。
  2. 獲取並總結搜索結果:通過配置的搜尋引擎獲取相關網絡內容,並由LLM進行匯總。
  3. 識別知識差距并迭代優化:LLM分析摘要、識別信息差距、生成新的搜索查詢,並重複上述步驟進行優化。
  4. 生成最終報告:經過多次疊代,生成包含所有引用來源的Markdown格式研究報告。

快速入門指南(以Mac為例)

  1. 安裝Ollama應用程式:來自 奧拉馬官方網站 下載並安裝Mac應用程式。
  2. 拉動當地LLM模型:例如,使用以下命令拉取DeepSeek R1模型:
    ollama pull Deepseek-r1:8b

    (GitHub - langchain-ai/local-deep-researcher:完全本地化的網絡研究和報告撰寫助手)

  3. 配置搜尋引擎API(可選):註冊Tavily,獲取API密鑰,設置環境變量 TAVILY_API_Key
  4. 克隆項目並開始服務
    git克隆https://github.com/langchain-ai/ollama-deep-researcher.git
    CD奧拉瑪深度研究員
    Python -m venv .venv
    source .venv/bin/activate
    pip install -e .
    語言開發

    (GitHub - langchain-ai/ollama-deep-research:完全本地的網絡研究和報告撰寫助理)

  5. 訪問Langstra Studio:在瀏覽器中打開 http://127.0.0.1:2024,進入LangDraw Studio,配置研究參數並開始使用它們。(Ÿ,)

項目靈感和技術背景

Olama Deep Researcher的設計靈感來自IterDRAG方法,該方法將查詢分解為子查詢,逐步獲取和總結信息,構建完整的知識圖譜。該項目使用LangShape構建研究流程圖,並結合本地LLM實現自動化信息檢索和總結。(ollama-deep-research/README.md at main · langchain-ai/ollama-deep-research· GitHub, [AIŸ]奧拉馬深度研究員-Ÿ Ÿ)

📁項目資源和連結

Github:https://github.com/langchain-ai/ollama-deep-researcher

輸油管:

返回頂端