Apple 推出 OpenELM

  • 具有开源训练和推理框架的高效 LM 系列
  • 性能与 OLMo 相当,同时需要的预训练令牌减少 2 倍

CoreNet 是一个深度神经网络工具包,允许研究人员和工程师为各种任务训练标准和新颖的小型和大型模型,包括基础模型(例如 CLIP 和 LLM)、对象分类、对象检测,和语义分割。

Apple 使用 CoreNet 进行的研究工作
以下是 Apple 使用 CoreNet 的出版物列表。此外,还可以在项目文件夹中找到训练和评估方法以及预训练模型的链接。请参阅它以了解更多详细信息。

OpenELM:具有开放训练和推理框架的高效语言模型家族
CatLIP:CLIP 级视觉识别精度,网络规模图像文本数据预训练速度提高 2.7 倍
强化数据,倍增影响:通过数据集强化提高模型准确性和稳健性
CLIP 遇见模型动物园专家:视觉增强的伪监督
FastVit:使用结构重新参数化的快速混合视觉变压器
您只需要字节:直接对文件字节进行操作的转换器
MobileOne:改进的一毫秒移动骨干网
RangeAugment:通过范围学习进行高效在线增强
移动视觉变压器的可分离自注意力 (MobileViTv2)
CVNets:计算机视觉的高性能库,ACM MM’22
MobileViT:轻量级、通用且适合移动设备的视觉转换器,ICLR’22

如果想详细了解,可以点开视频下方的链接。
谢谢观看本视频。要是喜欢,请订阅、点赞。谢谢

仓库: https://github.com/apple/corenet
高频: https://huggingface.co/apple/OpenELM
腹肌: https://arxiv.org/abs/2404.14619

视频:https://youtu.be/zZTeg3Y3NT8

了解 Tarogo Cloud Bloger & Shop 的更多信息

立即订阅以继续阅读并访问完整档案。

继续阅读

退出移动版