IT/AI知识库: 跟踪最新的IT/AI类资讯

MS Build 2024 的第一天

在 Microsoft Build 2024 上,Microsoft Copilot Studio 中的一系列强大新功能,您可以使用它来创建自己的自定义副驾驶或通过自己的企业数据和场景扩展 Microsoft Copilot 体验。

第一个是Copilot ,现在可以充当独立代理,可以由事件触发,而不仅仅是对话,并且可以自动化和编排复杂的、长期运行的业务流程,具有更多的自主权和更少的人为干预。

TRAMBA:一种新型混合变压器和基于 Mamba 的架构

来自西北大学和哥伦比亚大学的研究人员推出了混合变压器 TRAMBA 和 Mamba 架构,用于增强移动和可穿戴平台中的声学和骨传导语音。此前,在此类平台中采用骨传导语音增强技术面临着由于劳动密集型数据收集和模型之间的性能差距而面临的挑战。 TRAMBA 通过使用广泛可用的音频语音数据集进行预训练并使用少量骨传导数据进行微调来解决这个问题。

开发浏览器插件的福音:Extension.js

一个命令行工具一键生成支持不同浏览器插件的开发环境,内置支持 TS,React,WebAssembly 以及现代 Javascript。

试了一下,确实挺香,看官方视频感受一下,大家如果要做浏览器插件,建议直接使用这个插件。

无需构建配置即可创建跨浏览器扩展。

一个做llama3中文微调的宝藏仓库

CrazyBoyM/llama3-Chinese-chat: Llama3 中文仓库(聚合资料,各种微调、魔改版本有趣权重 & 训练、推理、评测、部署教程视频 & 文档),旨在支持中文场景下的Llama3模型应用和开发。

通义千问发布Qwen1.5-110B

首款超1000亿参数模型

Qwen1.5-110B是Qwen1.5系列中的新成员,也是该系列首个拥有超过1000亿参数的模型。

该模型在基础模型评估中表现出色,与Meta-Llama3-70B相媲美,并在聊天模型评估(包括MT-Bench和AlpacaEval 2.0)中表现出色

博主Min Choi的新艺术作品(一)

人工智能教育家。 𝕏 关于人工智能、解决方案和有趣的事情。 展示如何以实用的方式为您和您的企业利用人工智能。

人工智能教育家@minchoi 使用 Midjourney v6 重新构想了著名的艺术作品,以《星球大战》的风格呈现。

RadOnc-GPT 是医学领域中的LLM

在医学领域中,很少有领域比放射肿瘤学需要更高的精度或数据。 RadOnc-GPT 是一种经过微调的 LLM,使用 Meta Llama 2 构建,有可能显着改善放射治疗决策。

很少有领域比放射肿瘤学需要更高的精度或更多的数据。患者的生命取决于在这个专业领域获得正确的治疗。

将任何URL转换为带有简单前缀的LLM友好输入

可以做两件事:

它将任何 URL 转换为 https://r.jina.ai/https://your.url 的 LLM 友好输入。免费提高代理和 RAG 系统的输出。
它使用 https://s.jina.ai/your+query 在网络上搜索给定的查询。这使您的LLMs能够从网络获取最新的世界知识。

4个远程工作网站

Swagbucks是最著名的在线调查网站之一。注册免费Swagbucks账户时将获得10美元的奖金。
Slidejoy是一款安卓应用程序,可以在手机的锁屏上放置广告并得到报酬。
每次解锁手机将获得积分,可以兑换成现金或礼品卡。

学习外语的利器网站

YouGlish
网站目标就是帮助用户提高听力和发音能力。它提供了一个庞大的语音库,用户可以在其中搜索特定单词或短语,并获取来自YouTube中的例句。用户可以选择不同的语言和方言,并通过听力练习来提高自己的语言技能。

Google推出开源视觉语言模型:PaliGemma

支持图像视频等多种视觉语言任务
包括支持图像和短视频字幕、视觉问答、图像文本理解、物体检测文件图表解读、图像分割等任务。
PaliGemma 模型包含 30 亿(3B)个参数,结合了 SigLiP 视觉编码器和 Gemma 语言模型。

新的 SDXL Controlnet 线条模型 MistoLine

能够应对各种类型的线条艺术作品,无论是手绘草图、不同的 ControlNet 线预处理工具,还是由模型生成的轮廓,都能高精确性和稳定地处理。

一个重要特点是其泛化能力极强,无需针对不同的线预处理工具更换不同的 ControlNet 模型。

GPT-4 能比你更好地教机器人手做转笔技巧吗?

Eureka 弥合了高级推理(编码)和低级运动控制之间的差距。它是一种“混合梯度架构”:一个黑盒,仅推理 LLM 指示一个白盒,可学习的神经网络。外循环运行 GPT-4 来细化奖励函数(无梯度),而内循环运行强化学习来训练机器人控制器(基于梯度)。