视频展示了如何微调 Mixtral
Mistral 的 8x7B Mixture of Experts (MoE),其性能优于 Llama2 70B!
该视频演练简单易懂,并使用 QLoRA,因此您不需要 A100
YouTube 链接位于 🤙 下方(from @HarperSCarroll)
AI news tracing site
Mistral 的 8x7B Mixture of Experts (MoE),其性能优于 Llama2 70B!
该视频演练简单易懂,并使用 QLoRA,因此您不需要 A100
YouTube 链接位于 🤙 下方(from @HarperSCarroll)