Media2Face:通过语音合成3D面部画面
Media2Face能够根据声音来生成与语音同步的、表现力丰富的3D面部动画。
同时允许用户对生成的面部动画进行更细致的个性化调整,如情感调整,“快乐”或“悲伤”等。
它还能理解多种类型的输入信息(音频、文本、图像),并将这些信息作为生成面部动画的指引。
Media2Face能够根据声音来生成与语音同步的、表现力丰富的3D面部动画。
同时允许用户对生成的面部动画进行更细致的个性化调整,如情感调整,“快乐”或“悲伤”等。
它还能理解多种类型的输入信息(音频、文本、图像),并将这些信息作为生成面部动画的指引。
机器人初创公司@Figure_robot 发布了一段视频
他们家的Figure-01机器人现在可以自己煮咖啡了
这是一个使用了端到端的人工智能系统,仅通过观察人类制作咖啡的录像,10小时内学会了制作咖啡的技能。
报道披露了 OpenAI 和微软与人形机器人公司 Figure 的融资谈判。
此轮融资对Figure的估值接近$2B。
将其与 Google Sheets 结合起来,实现数据处理的自动化。
向您展示如何使用 Bard 来管理没有公式的电子表格:
使用人工智能制作了一部戏剧、一部动作喜剧、一部纪录片和音乐视频。接下来:“Fragrance by Elle”,一个商业广告。
使用 @midjourney v6、@runwayml gen2、@Magnific_AI 高档制作。
宣称是世界上第三大能力超强的多模态模型,仅次于GPT4-V和Gemini Ultra。
它特别擅长理解用户界面,这意味着可以解释和操作各种软件和应用程序的界面。
能够帮助用户执行各种任务,如自动化流程、响应查询、提供信息等。
Google Research团队开发的基于空间时间的文本到视频扩散模型。
它采用了创新的空间时间U-Net架构,能够一次性生成整个视频的时间长度,不同于其他模型那样逐帧合成视频。
确保了生成视频的连贯性和逼真度。