视频展示了如何微调 Mixtral

Mistral 的 8x7B Mixture of Experts (MoE),其性能优于 Llama2 70B!

该视频演练简单易懂,并使用 QLoRA,因此您不需要 A100

YouTube 链接位于 🤙 下方(from @HarperSCarroll)

了解 Tarogo Cloud Bloger & Shop 的更多信息

立即订阅以继续阅读并访问完整档案。

继续阅读