标签:方法
对抗「概念飘逸」难题!谷歌发布全新时间感知框架:图像识别准确率提升15%
新智元报道编辑:wewe 【新智元导读】告别数据健忘症!机器学习新方法实现「时空穿越」,助力模型适应易变世界。在机器学习领域,概念漂移(concept drift)...
ControlNet作者新作:AI绘画能分图层了!项目未开源就斩获660 Star
金磊 发自 凹非寺量子位 | 公众号 QbitAI“绝不是简单的抠图。” ControlNet作者最新推出的一项研究受到了一波高度关注—— 给一句prompt,用Stable Diffusion可...
基于神经网络的偏微分方程求解器新突破:北大&字节研究成果入选Nature子刊
机器之心发布 机器之心编辑部近年来,基于神经网络的偏微分方程求解器在各领域均得到了广泛关注。其中,量子变分蒙特卡洛方法(NNVMC)在量子化学领域异军突...
让Sora东京女郎唱歌、高启强变声罗翔,阿里人物口型视频生成绝了
机器之心报道 机器之心编辑部有了阿里的 EMO,AI 生成或真实的图像「动起来说话或唱歌」变得更容易了。 最近,以 OpenAI Sora 为代表的文生视频模型又火了起...
想训练类Sora模型吗?尤洋团队OpenDiT实现80%加速
机器之心报道 机器之心编辑部作为 2024 开年王炸,Sora 的出现树立了一个全新的追赶目标,每个文生视频的研究者都想在最短的时间内复现 Sora 的效果。 根据 O...
数量即力量!腾讯揭秘:Agent数量越多,大语言模型效果越好
机器之心专栏 机器之心编辑部来自腾讯的研究者们做了一个关于 agent 的scaling property(可拓展性)的工作。发现:通过简单的采样投票,大语言模型(LLM)的...
机器遗忘同等重要,AI如何忘记不良数据,保护用户隐私?
夕小瑶科技说 原创作者 | 松果、Python引言:大语言模型中的机器遗忘问题在人工智能领域,大语言模型(LLMs)因其在文本生成、摘要、问答等任务中展现出的卓...
大模型+智能城市=城市通用智能!港科大(广州)发布最新「城市基础大模型UFM」综述与方案
新智元报道编辑:LRS 【新智元导读】城市通用智能该如何发展?如何解决概念定义模糊、缺乏系统文献述评和通用解决方案等难题?城市通用智能(UGI)是一种概念...
补齐Transformer规划短板,田渊栋团队的Searchformer火了
机器之心报道 编辑:PandaTransformer 强大的泛化能力再次得到证明!最近几年,基于 Transformer 的架构在多种任务上都表现卓越,吸引了世界的瞩目。使用这类...
GPT-4正接管人类数据专家!先验知识让LLM大胆预测,准确率堪比传统方式
新智元报道编辑:桃子 【新智元导读】终有一天,LLM可以成为人类数据专家,针对不同领域进行数据分析,大大解放AI研究员。在数据科学中,AI研究员经常面临处...
OpenAI工程师必备经典《苦涩的教训》,原来20多年前就有了原型
机器之心报道 编辑:杜伟大量数据学习涌现出来的能力,终于超越了人们的想象。 OpenAI 推出视频生成模型 Sora 已经一周的时间了,热度不减,作者团队还在持续...
ICLR 2024 Poster:精确且高效的大语言模型低比特量化方法 QLLM|AI新青年讲座
「AI新青年讲座」由智猩猩出品,致力于邀请青年学者,主讲他们在生成式AI、LLM、计算机视觉、机器学习等人工智能领域的最新重要研究成果。 AI新青年是加速人...
中科院计算所:什么情况下,大模型才需要检索增强?
夕小瑶科技说 原创作者 | 谢年年、PythonChatGPT等大型语言模型在自然语言处理领域表现出色。但有时候会表现得过于自信,对于无法回答的事实问题,也能编出一...
Sora出圈,背后DiT也火了!作者NYU谢赛宁官宣全新升级版SiT
新智元报道编辑:好困 【新智元导读】扩散Transformer(DiT)重磅升级——可扩展插值Transformer(SiT)!虽然核心架构没变,但在质量、处理速度和使用灵活性方...
模型融合、混合专家、更小的LLM,几篇论文看懂2024年LLM发展方向
选自Ahead of AI 作者:Sebastian Raschka 机器之心编译 编辑:Panda还有 10 个月,2024 年还有很多期待空间。在过去的 2023 年中,大型语言模型(LLM)在潜...