标签:方法

JHU上交等提出首个可渲染X光3DGS!推理速度73倍NeRF,性能提升6.5dB | ECCV 2024

新智元报道编辑:LRST 【新智元导读】X-Gaussian是一种新型的3D Gaussian Splatting框架,专为X光新视角合成而设计,以减少医疗成像中的X光辐射剂量,通过高...
阅读原文

Scaling Law瓶颈,Cursor编程为什么这么强?团队参与新研究掏出秘密武器

机器之心报道 编辑:Panda、佳琪近段时间,AI 编程工具 Cursor 的风头可说是一时无两,其表现卓越、性能强大。近日,Cursor 一位重要研究者参与的一篇相关论...
阅读原文

小模型越级挑战14倍参数大模型,谷歌开启Test-Time端新的Scaling Law

西风 发自 凹非寺量子位 | 公众号 QbitAI不必增加模型参数,计算资源相同,小模型性能超过比它大14倍的模型! 谷歌DeepMind最新研究引发热议,甚至有人表示这...
阅读原文

TPAMI 2024 | 计算机视觉中基于图神经网络和图Transformers的方法和最新进展

AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术...
阅读原文

灵敏度提高56%,港中文/复旦/耶鲁等联袂提出全新蛋白质同源物检测方法

作者:田小幺 编辑:十九,李宝珠 基于蛋白质语言模型和密集检索技术,香港中文大学李煜,联合复旦大学智能复杂体系实验室、上海人工智能实验室青年研究员孙...
阅读原文

GPT-4结合SAM2:免训练多模态分割的全新解决方案!| 已开源

北京航空航天大学 李红羽 投稿 凹非寺量子位 | 公众号 QbitAI免训练多模态分割领域有了新突破! 中科院信工所、北航、合工大、美团等单位联合提出了一种名为A...
阅读原文

MoE再下一城!港大提出AnyGraph:首次开启「图大模型」Scaling Law之路

新智元报道编辑:LRST 【新智元导读】AnyGraph聚焦于解决图数据的核心难题,跨越多种场景、特征和数据集进行预训练。其采用混合专家模型和特征统一方法处理结...
阅读原文

ECCV 2024 | 引入DiT的原生3D通用框架,适用任意神经场、秒级生成

AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术...
阅读原文

3秒让AI变乖,生成风险图片减少30%!复旦新研究拿下扩散模型概念移除新SOTA|ECCV 2024

RECE团队 投稿量子位 | 公众号 QbitAI让AI绘画模型变“乖”,现在仅需3秒调整模型参数。 效果be like:生成的风险图片比以往最佳方法减少30%! 像这样,在充分...
阅读原文

10行代码让大模型数学提升20%,“野路子”研究谷歌也测上了,主要作者全靠自学成才

克雷西 发自 凹非寺量子位 | 公众号 QbitAI只要不到10行代码,就能让大模型数学能力(GSM8k)提升20%! 几名独立学者提出了大模型采样的改进方案,引起了开源...
阅读原文

LLM蒸馏到GNN,性能提升6.2%!Emory提出大模型蒸馏到文本图|CIKM 2024

新智元报道编辑:LRST 【新智元导读】Emory大学的研究团队提出了一种创新的方法,将大语言模型(LLM)在文本图(Text-Attributed Graph, 缩写为TAG)学习中的...
阅读原文

Post-Training有多重要?AI2研究员长文详解前沿模型的后训练秘籍

新智元报道编辑:乔杨 【新智元导读】越来越多研究发现,后训练对模型性能同样重要。Allen AI的机器学习研究员Nathan Lambert最近发表了一篇技术博文,总结了...
阅读原文

Llama 8B搜索100次超越GPT-4o!推理+搜索即可提升性能,新「Scaling Law」诞生?

新智元报道编辑:乔杨 【新智元导读】最近的论文表明,LLM等生成模型可以通过搜索来扩展,并实现非常显著的性能提升。另一个复现实验也发现,让参数量仅8B的L...
阅读原文

材料探索新纪元!清华大学徐勇、段文晖团队发布神经网络密度泛函框架,打开物质电子结构预测的黑箱!

作者:田小幺 编辑:李姝,十九 清华大学徐勇、段文晖研究组提出了神经网络密度泛函理论的理论框架,该框架统一了神经网络中损失函数的最小化与密度泛函理论...
阅读原文

最强智能体Agent Q发布!Llama 3零样本成功率提升340%

夕小瑶科技说 分享来源 | 新智元没有等来OpenAI的Q*草莓项目的发布,一家名为MultiOn初创公司却抢先发布了名为Q的智能体。 非常高兴地宣布我们过去6个月的工...
阅读原文
12318