标签:序列

通用视觉推理显现,UC伯克利炼出单一纯CV大模型,三位资深学者参与

机器之心报道机器之心编辑部仅靠视觉(像素)模型能走多远?UC 伯克利、约翰霍普金斯大学的新论文探讨了这一问题,并展示了大型视觉模型(LVM)在多种 CV 任...
阅读原文

计算机视觉GPT时刻!UC伯克利三巨头祭出首个纯CV大模型,推理惊现AGI火花

新智元报道编辑:编辑部【新智元导读】UC伯克利的CV三巨头推出首个无自然语言的纯视觉大模型,第一次证明纯CV模型也是可扩展的。更令人震惊的是,LVM竟然也能...
阅读原文

Transformer变革3D建模,MeshGPT生成效果惊动专业建模师,网友:革命性idea

机器之心报道机器之心编辑部连续「预测下一个 token」能生成句子,同理,连续「预测下一个三角形网格」也能生成 3D 模型。在计算机图形学中,「三角形网格」...
阅读原文

拉妮·米歇尔Science刊文:AI能否自主学习世界模型?

导语现代认知科学认为,人类会在头脑中构建关于周围真实世界的抽象模型——世界模型(world model)。获取“世界模型”的问题一直是人工智能研究的焦点。OpenAI ...
阅读原文

30 位学者合力发表 Nature 综述,10 年回顾解构 AI 如何重塑科研范式

By 超神经科学发现是一个复杂过程,涉及到几个相互关联的阶段,包括形成假设、实验设计、数据收集及分析。近年来,AI 与基础科研的融合日益加深,借助 AI,科...
阅读原文

大幅提升用户行为表征通用性,蚂蚁新模型获CIKM 2023最佳应用论文奖

机器之心专栏作者:蚂蚁机器智能部由美国计算机学会 ACM 主办的 CIKM 2023 学术会议在英国伯明翰举行,大会吸引了 8000+ 学术从业者参加,并从 235 篇应用研...
阅读原文

重新审视Transformer:倒置更有效,真实世界预测的新SOTA出现了

机器之心报道编辑:大盘鸡反转 Transformer,变成 iTransformer。Transformer 在时间序列预测中出现了强大能力,可以描述成对依赖关系和提取序列中的多层次表...
阅读原文

单点端到端文本检测识别框架速度提升19倍!华科、华南理工等联合发布SPTS v2

新智元报道编辑:LRS 好困【新智元导读】单点文本框标注,成本显著降低;将检测和识别解耦,并行解码提升自回归速度。近年来,场景文本阅读(Text Spotting)...
阅读原文

李航:关于大模型的思考及研究热点

来源:图灵人工智能本文阐述李航老师对 LLM 的一些看法,主要观点如下:ChatGPT 的突破主要在于规模带来的质变和模型调教方式的发明。LLM 融合了实现人工智能...
阅读原文

基于Transformer和注意力的可解释核苷酸语言模型,用于pegRNA优化设计

将 ScienceAI设为星标第一时间掌握新鲜的 AI for Science 资讯编辑 | 紫罗基因编辑是一种新兴的、比较精确的能对生物体基因组特定目标基因进行修饰的一种基因...
阅读原文

比Transformer更好,无Attention、MLPs的BERT、GPT反而更强了

机器之心报道编辑:杜伟、泽南本文探索了 Monarch Mixer (M2) ,这是一种在序列长度和模型维度上都是次二次的新架构,并且在现代加速器上具有很高的硬件效率...
阅读原文

Nature | 30多年前的断言被打破了?大模型具备了人类水平的系统泛化能力

机器之心报道机器之心编辑部我们知道,人类具有「举一反三」的能力,即学习一个新概念后立即就能用它来理解相关用法。例如,当小朋友知道如何「跳」,他们就...
阅读原文

Transformer王者归来!无需修改任何模块,时序预测全面领先

新智元报道编辑:好困【新智元导读】最近,来自清华大学和蚂蚁集团的研究人员重新审视Transformer结构在时序分析中的应用,提出一个全新的反转视角——无需修改...
阅读原文

LLM 的推理优化技术纵览

作者简介作者:紫气东来原文:https://zhuanlan.zhihu.com/p/642412124转载者:杨夕【LLMs九层妖塔】: https://github.com/km1994/LLMsNineStoryDemonTower推...
阅读原文

字节跳动李航:对语言大模型的若干观察和思考

机器之心专栏作者:ByteDance Research负责人李航本文阐述笔者对 LLM 的一些看法,主要观点如下:ChatGPT 的突破主要在于规模带来的质变和模型调教方式的发明...
阅读原文
1678910