视频展示了如何微调 Mixtral

Mistral 的 8x7B Mixture of Experts (MoE),其性能优于 Llama2 70B!

该视频演练简单易懂,并使用 QLoRA,因此您不需要 A100

YouTube 链接位于 🤙 下方(from @HarperSCarroll)