AI项目

斯坦福大学的研究人员推出 Octopus v2:

斯坦福大学的研究人员推出了 Octopus v2,这是一种先进的设备上语言模型,旨在解决与当前LLM应用程序相关的普遍存在的延迟、准确性和隐私问题。与之前的型号不同,Octopus v2 显着减少了延迟并提高了设备​​上应用程序的准确性。其独特之处在于通过功能标记进行微调的方法,可以实现精确的函数调用,在效率和速度上超越GPT-4,同时将上下文长度大幅削减95%。

AI项目, Alphabet

Google DeepMind 展示深度混合:

来自 Google DeepMind、麦吉尔大学和 Mila 的研究人员推出了一种突破性的方法,称为深度混合 (MoD),它不同于传统的统一资源分配模型。 MoD 使 Transformer 能够动态分配计算资源,重点关注序列中最关键的标记。该方法代表了管理计算资源的范式转变,并有望显着提高效率和性能。

AI项目

Octopus-v2:可以在移动设备上运行的2B LLMs

Octopus-V2-2B是由斯坦福大学Nexa AI开发专为Android API的功能调用定制。
采用了一种独特的功能性标记策略,超越了基于RAG的方法,特别适用于边缘计算设备。
比Llama7B + RAG方案快36倍,性能优于 GPT-4,延迟时间小于 1 秒。

AI项目, Claude

Claude发布函数调用工具:Tool use

允许模型与外部系统和数据进行交互

使用Tool use (function calling)功能,Claude不仅能够生成文本或回答问题,还能实际调用外部定义的函数或工具来执行特定操作,如获取当前的天气信息、执行数学计算等。

AI项目, Meta

Meta 宣布推出 URHand

模型是基于光级数据构建的 Relightable Hands 的高保真通用先验。它概括为新颖的观点、姿势、身份和照明,从而可以通过手机扫描进行快速个性化

滚动至顶部