Olama Deep Researcher是由LangChain團隊開發的一個開源項目,旨在提供完全本地化的網絡研究和報告撰寫助理。該工具將本地大型語言模型(LLM)和網絡搜尋引擎相結合,自動執行信息檢索、總結和疊代優化,並最終生成包含引用來源的Markdown格式研究報告。
項目核心功能
- 完全本地化運營:使用Olama或LMStudio託管的本地LLM來確保數據隱私,而無需將數據發送到雲。
- 智能疊代研究:通過多輪疊代(默認3輪,可配置)自動優化搜索策略,以填補知識空白。
- 多個搜尋引擎支持:默認使用DuckDuckGo,也可以將Tavily或Perplexity配置為搜尋引擎。
- 可視化研究過程:通過LangShape Studio實時監控研究進展,包括生成搜索結果、摘要和最終報告。
- 學術產出:自動生成Markdown格式的研究報告,並提供完整的引用,以供進一步編輯和共享。
工作流程概述
- 生成搜索查詢:用戶輸入研究主題後,LLM生成初始網絡搜索查詢。
- 獲取並總結搜索結果:通過配置的搜尋引擎獲取相關網絡內容,並由LLM進行匯總。
- 識別知識差距并迭代優化:LLM分析摘要、識別信息差距、生成新的搜索查詢,並重複上述步驟進行優化。
- 生成最終報告:經過多次疊代,生成包含所有引用來源的Markdown格式研究報告。
快速入門指南(以Mac為例)
- 安裝Ollama應用程式:來自 奧拉馬官方網站 下載並安裝Mac應用程式。
- 拉動當地LLM模型:例如,使用以下命令拉取DeepSeek R1模型:
ollama pull Deepseek-r1:8b(GitHub - langchain-ai/local-deep-researcher:完全本地化的網絡研究和報告撰寫助手)
- 配置搜尋引擎API(可選):註冊Tavily,獲取API密鑰,設置環境變量
TAVILY_API_Key。 - 克隆項目並開始服務:
git克隆https://github.com/langchain-ai/ollama-deep-researcher.git CD奧拉瑪深度研究員 Python -m venv .venv source .venv/bin/activate pip install -e . 語言開發(GitHub - langchain-ai/ollama-deep-research:完全本地的網絡研究和報告撰寫助理)
- 訪問Langstra Studio:在瀏覽器中打開
http://127.0.0.1:2024,進入LangDraw Studio,配置研究參數並開始使用它們。(Ÿ,)
項目靈感和技術背景
Olama Deep Researcher的設計靈感來自IterDRAG方法,該方法將查詢分解為子查詢,逐步獲取和總結信息,構建完整的知識圖譜。該項目使用LangShape構建研究流程圖,並結合本地LLM實現自動化信息檢索和總結。(ollama-deep-research/README.md at main · langchain-ai/ollama-deep-research· GitHub, [AIŸ]奧拉馬深度研究員-Ÿ Ÿ)
📁項目資源和連結
- GitHub存儲庫:(GitHub - langchain-ai/ollama-deep-research:完全本地的網絡研究和報告撰寫助理)
- 視頻教程:該項目提供從頭開始構建和使用的詳細視頻教程,以幫助用戶快速入門。
- LangShape Studio:通過可視化界面,用戶可以實時監控研究過程、調整參數並查看中間結果。
Github:https://github.com/langchain-ai/ollama-deep-researcher
輸油管: