标签:卷积

30篇论文,就能掌握当今科技90%的知识!ILYA公布神级论文清单(下)

点击上方蓝字关注我们02 (下)部分深度残差学习用于图像识别这篇论文的标题是《深度残差学习用于图像识别》,由何凯明等撰写,于2015年12月提交到 arXiv。这...
阅读原文

12年前上手深度学习,Karpathy掀起一波AlexNet时代回忆杀,LeCun、Goodfellow等都下场

机器之心报道 机器之心编辑部没想到,自 2012 年 AlexNet 开启的深度学习革命已经过去了 12 年。 而如今,我们也进入了大模型的时代。 近日,知名 AI 研究科...
阅读原文

纳米尺度下的单粒子追踪,厦门大学方宁团队用 AI 奏响「细胞里的摇滚」

作者:田小幺 编辑:李宝珠,三羊 厦门大学方宁教授团队基于深度学习,研发了一种自动化、高速、多维的单粒子追踪 (SPT) 系统,打破了细胞微环境中纳米颗粒旋...
阅读原文

Sora之后,OpenAI Lilian Weng亲自撰文教你从头设计视频生成扩散模型

选自Lil’Log 作者:Lilian Weng 机器之心编译 编辑:Panda过去几年来,扩散模型强大的图像合成能力已经得到充分证明。研究社区现在正在攻克一个更困难的任务...
阅读原文

无需训练,这个新方法实现了生成图像尺寸、分辨率自由

机器之心专栏 机器之心编辑部近日,来自香港中文大学 - 商汤科技联合实验室等机构的研究者们提出了FouriScale,该方法在利用预训练扩散模型生成高分辨率图像...
阅读原文

老药新用,中南大学团队发布 AdaDR,基于自适应图卷积网络进行药物重定位

作者:梅菜 编辑:李宝珠,三羊 中南大学研究团队提出了一种名为 AdaDR 的自适应 GCN 方法,通过深度集成节点特征和拓扑结构来进行药物重定位。现代社会,人...
阅读原文

CNN、Transformer、Uniformer之外,我们终于有了更高效的视频理解技术

机器之心报道 编辑:Rome Rome视频理解因大量时空冗余和复杂时空依赖,同时克服两个问题难度巨大,CNN 和 Transformer 及 Uniformer 都难以胜任,Mamba 是个...
阅读原文

手机、PC轻松跑大模型!谷歌发最新API,28亿参数模型本地跑

安卓霸主出手!让大模型轻松跑在手机上,四大模型可用。 编译|李水青 编辑|云鹏 智东西3月8日报道,昨晚,谷歌正式发布了MediaPipe LLM Inference API,该API...
阅读原文

手撕CNN:综述论文详解卷积网络的数学本质

近日南洋理工大学研究者发布了一篇描述卷积网络数学原理的论文,该论文从数学的角度阐述整个卷积网络的运算与传播过程。该论文对理解卷积网络的数学本质非常...
阅读原文

Mamba正式被ICLR拒收!“年度最佳技术原理解读”却火了

丰色 发自 凹非寺量子位 | 公众号 QbitAI悬着的心终于死了: 被尊为Transformer挑战者的Mamba,已正式被ICLR拒绝。 (之前被“初拒”后在学术圈引起轩然大波,...
阅读原文

目标检测新SOTA:YOLOv9问世,新架构让传统卷积重焕生机

机器之心报道 机器之心编辑部在目标检测领域,YOLOv9 实现了一代更比一代强,利用新架构和方法让传统卷积在参数利用率方面胜过了深度卷积。 继 2023 年 1 月 ...
阅读原文

PRO | 多模态趋势下,Transformer并非主流架构唯一解

2023年,几乎 AI 的每个领域都在以前所未有的速度进化,同时,AI也在不断地推动着具身智能、自动驾驶等关键赛道的技术边界。 多模态趋势下,Transformer 作为...
阅读原文

我们还需要Transformer中的注意力吗?

选自interconnects 作者:Nathan Lambert 机器之心编译 机器之心编辑部状态空间模型正在兴起,注意力是否已到尽头?最近几周,AI 社区有一个热门话题:用无注...
阅读原文

突发!AI大牛Andrej Karpathy离开OpenAI

机器之心报道 编辑:张倩、陈萍Andrej Karpathy 又离职了! 刚刚,AI大牛Andrej Karpathy官宣了一条重要消息:他昨天已经从OpenAI离职,不过这中间没有什么戏...
阅读原文

超过ConvNeXt,CSWin等!上海交大提出Transformer架构新SOTA:SeTformer!

直播预告 | 1月22日晚7点,「自动驾驶新青年讲座」第35讲正式开讲,LMDrive一作、香港中文大学MMLab在读博士邵昊将主讲《LMDrive:大语言模型加持的闭环端到...
阅读原文
123