Mistral推出的開源Mixtral 8x 7 B型號採用「Expert Hybrid」(MoE)架構。與傳統的變壓器不同,MoE模型內置多個專家級前向網絡(該模型有8個)。推理時,門控網絡負責選擇兩名專家進行工作。此設置使MoE能夠實現更快的推理速度,同時保持與大型模型相當的性能。Mixtral 8x 7 B模型共有46.7B參數,但在實際推理過程中僅激活12.9B參數來預測下一個Token。
在「Mistral入門指南」課程中,Sophia Yang博士Mistral在講座中,您將學到:
- 通過API調用和Mistral AI的Le Chat網站探索Mistral的開源模型(Mistral 7 B、Mistral 8 x 7 B)和商業模式。
- 實現JSON模式以生成可直接集成到大型軟體系統中的結構化輸出。
- 了解如何使用函數調用進行工具操作,例如使用自定義Python代碼來查詢表數據。
- 將您的大語言模型(LLM)響應與外部知識源相結合,並使用RAG技術來增強實用性。
- 創建一個Mistral驅動的聊天界面,可以引用外部文檔。
本課程將幫助提高您的即時工程技能。
探索Mistral的三種開源模型(Mistral 7 B、Mistral 8x7 B和最新的Mistral 8x22 B)以及Mistral通過Web接口和API調用提供訪問的三種商業模型(小型、中型和大型)。
利用Mistral的SON模式以結構化的SON格式生成LLM響應,以將LLM輸出集成到更大的軟體應用程式中。
使用Mistral的API調用用戶定義的Python函數來執行Web搜索或從資料庫中檢索文本等任務,增強LLM查找相關信息以回答用戶查詢的能力。
在本課程中,您將訪問Mistral AI的開源和商業模型系列,包括Mixstral 8x7 B模型和最新的Mixstral 8x22 B。您將了解如何為您的用例和實踐功能選擇正確的模型,例如有效的提示技術、函數調用、SON模式和檢索增強生成(RAG)。
更多居間:
通過API調用任務以訪問和提示Mistral模型,並確定您的任務是簡單任務(分類)、中等任務(撰寫電子郵件)還是高級任務(編碼)複雜性,並考慮速度要求選擇合適的模型。
學習使用Mistral的原生函數調用,您可以在其中提供LLM工具,可以按需調用這些工具來執行傳統代碼更好執行的任務,例如查詢資料庫中的數字數據。
通過相似性搜索從頭開始構建基本的RAG系統,正確地分塊數據,創建嵌入,並將此工具作為聊天系統中的一個功能實現。
構建聊天界面以與Mistral模型互動並詢問有關您上傳的文檔的問題。
本課程結束時,您將能夠利用Mistral AI領先的開源和商業模式。
Mistral簡介是一門初學者課程,適合任何想要了解和使用Mistral AI先進開源和商業LLM集合的人。如果您已經參與了ChatGPT開發人員提示工程或Llama 2的提示工程,那麼這是很棒的下一步!
如果您想了解更多信息,可以單擊視頻下方的連結。
感謝您觀看此視頻。如果您喜歡,請訂閱並點讚。謝謝
課程連結:https://deeplearning.ai/short-courses/getting-started-with-mistral/
視頻: