Move API提供的功能和灵活性为开发者创造了广泛的应用可能性,从增强现实(AR)应用、游戏开发到影视动画制作,都能够从中受益。通过提供易于集成的API和SDK,Move AI使得将高质量的3D运动数据集成到各种项目中变得更加简单和高效。
最新文章
ChatGPT代码库进行了一些变动
与英语语言/翻译文件、图像生成样式图像、工作区设置.groups、ReadAloud / AudioPlayer等相关的一些内容发生了更改! ChatGPT 数据分析 V2 显然使用了名为“gpt-4-ada-v2”(高级数据分析 V2)的新 GPT-4 模型。
SDXL Lightning 实时生图
边打字边生成图片,速度贼拉快
YOLOv9:实时对象检测,能够快速准确地在图像或视频中识别和定位多个对象
之前的YOLO系列模型相比,YOLOv9在不牺牲性能的前提下实现模型的轻量化,同时保持更高的准确率和效率。 这使得它可以在各种设备和环境中运行,如移动设备、嵌入式系统和边缘计算设备。 YOLOv9通过改进模型架构和训练方法,提高了对象检测的准确性和效率
StabilityAI推出图像提升增强工具:CreativeUpscaler
1、分辨率提升:将图像升级到4K分辨率,无论原始图像的大小如何。 2、细节创造:不仅放大图像,还能“幻想”出原始图像中不存在的新细节,通过结合输入图像与文本提示,创造出清晰、高质量的图像效果。...
AEA 数据集:由Meta团队开发
一个基于 Project Aria AR眼镜记录的第一人称多模态开放数据集。 它包含了143个由多个佩戴者在五个地理位置记录的日常活动序列。 这些记录包含了通过Project Aria眼镜记录的多模态传感器数据,同时还提供了机器感知数据。 包括高频全球对齐的3D轨迹、场景点云、...
YOLO-World&EfficientSAM&Stable Diffusion 能干啥?
实时检测视频中的特定对象,然后分割对象,使用自然语言来对特定的对象进行替换、修改、风格化等! 是不是很熟悉?科幻片里面的场景就实现了! 这意味着你可以对任意图像和视频里面的内容进行实时的替换和修改,甚至换掉视频中的某个人物。
UMI:斯坦福开发的一个机器人数据收集和策略学习框架
UMI可以将人类在复杂环境下的操作技能直接转移给机器人,无需人类编写详细的编程指令。 也就是通过人类亲自操作演示然后收集数据,直接转移到机器人身上,使得机器人能够快速学习新任务 UMI整合了精心设计的策略接口,包括推理时延匹配和相对轨迹动作表示,使得学习到的策略不受硬件限制,可跨多个机器人平台部署。
YOLOv8:目标检测跟踪模型
YOLOv8能够在图像或视频帧中快速准确地识别和定位多个对象,还能跟踪它们的移动,并将其分类。 除了检测对象,YOLOv8还可以区分对象的确切轮廓,进行实例分割、估计人体的姿态、帮助识别和分析医学影像中的特定模式等多种计算机视觉任务。
Google的一个新的视频模型:VideoPoet
它可以根据文字描述来生成视频。但它不是基于扩散模型,而本身就是个LLM,可以理解和处理多模态信息,并将它们融合到视频生成过程中。 不仅能生成视频,还能给视频加上风格化的效果,还可修复和扩展视频,甚至从视频中生成音频。 一条龙服务... 例如,VideoPoet...
Stability AI 的 Stable Video官网正式上线
支持上传图片和文字提示生成视频 从官网提供的演示视频来看,质量非常高,是Runway的强有力竞争者。 支持通过相机运动来控制视频的生成过程。
Groq 最近的硬件突破疯传
Groq(不是 Grok)使用 LPU 而不是 GPU,允许聊天机器人以几乎瞬时的响应时间运行 LLMs。 这开启了一个充满潜在人工智能和用户体验的全新世界。
OpenAI推出的一音乐生成模型:Jukebox
OpenAI在2019年8月份就推出了他们的一音乐生成模型:Jukebox Jukebox能够根据提供的歌词、艺术家和流派信息生成多种流派和艺术家风格的完整音乐和人声歌曲。 最牛P的是,3年前的质量就已经这样了... 而且据说Jukebox 2即将发布
AnyGPT:任意模态到任意多模态的大语言模型
通过连接大语言模型与多模态适配器和扩散解码器,AnyGPT实现了对各种模态输入的理解和能够在任意模态中生成输出的能力。 也就是可以处理任何组合的模态输入(如文本、图像、视频、音频),并生成任何模态的输出... 实现了真正的多模态通信能力。 这个项目之前叫NExT-GPT
OOTDiffusion:一个高度可控的虚拟服装试穿开源工具
可以根据不同性别和体型自动调整,和模特非常贴合。也可以根据自己的需求和偏好调整试穿效果 OOTDiffusion支持半身模型和全身模型两种模式。
利用Groq可以实现实时AI对话
将运行在 Groq 上的 Llama-70B 模型与 Whisper 模型结合,实现了几乎零延迟的性能。 如果在GPT 4或者未来更高版本GPT 5能实现这速度,想象空间很大,几乎秒级就能写一本书出来,AI实时通话都不是问题!