标签:矩阵

今日arXiv最热NLP大模型论文:中科院发布!针对初学者的大语言模型综述

夕小瑶科技说 原创作者 | 谢年年、Python大语言模型,作为自然语言处理领域火热的方向,如今已经真正“破圈”成为了科技界的明星。特别是其中的佼佼者——ChatGPT...
阅读原文

今日arXiv最热NLP大模型论文:做到头了!清华和哈工大把大模型量化做到了1比特

夕小瑶科技说 原创作者 | 谢年年在追求更高效的机器学习模型部署时,模型量化技术应运而生,它通过降低权重矩阵的位宽来显著减少大型语言模型的存储和计算需...
阅读原文

单GPU就能压缩模型,性能不变参数少25%!微软提出模型稀疏化新方法

新智元报道编辑:拉燕 【新智元导读】大语言模型之大,成本之高,让模型的稀疏化变得至关重要。众所周知,对于大语言模型来说,规模越大,所需的算力越大,自...
阅读原文

我们还需要Transformer中的注意力吗?

选自interconnects 作者:Nathan Lambert 机器之心编译 机器之心编辑部状态空间模型正在兴起,注意力是否已到尽头?最近几周,AI 社区有一个热门话题:用无注...
阅读原文

今日arXiv最热NLP大模型论文:微软提出SliceGPT,删除25%模型参数,性能几乎无损

夕小瑶科技说 原创作者 | 松果、Python引言:探索大型语言模型的高效压缩方法随着大型语言模型(LLMs)在自然语言处理领域的广泛应用,它们对计算和内存资源...
阅读原文

量子计算背后的力量:矩阵分解的深层影响

在现代科学的众多领域中,矩阵分解作为一种数学工具,其重要性不容小觑。特别是在物理学和计算科学中,矩阵分解不仅为理解复杂系统提供了关键的理论支撑,也...
阅读原文

大模型也能切片,微软SliceGPT让LLAMA-2计算效率大增

机器之心报道 编辑:张倩、佳琪删除权重矩阵的一些行和列,让 LLAMA-2 70B 的参数量减少 25%,模型还能保持 99% 的零样本任务性能,同时计算效率大大提升。这...
阅读原文

Nature Physics评论:复杂系统的内在简单性

导语复杂系统是高维非线性的动力系统,其组成成分之间存在异质相互作用。为了对复杂系统的大规模行为做出可解释的预测,通常假定这些动力学可以简化为几个方...
阅读原文

超过ConvNeXt,CSWin等!上海交大提出Transformer架构新SOTA:SeTformer!

直播预告 | 1月22日晚7点,「自动驾驶新青年讲座」第35讲正式开讲,LMDrive一作、香港中文大学MMLab在读博士邵昊将主讲《LMDrive:大语言模型加持的闭环端到...
阅读原文

比A100性价比更高!FlightLLM让大模型推理不再为性能和成本同时发愁

机器之心专栏 机器之心编辑部大语言模型在端侧的规模化应用对计算性能、能效比需求的“提拽式”牵引,在算法与芯片之间,撕开了一道充分的推理竞争场。 面对想...
阅读原文

无需额外训练提升模型30%性能!DeepMind科学家点赞MIT博士生实习成果

丰色 发自 凹非寺量子位 | 公众号 QbitAI一个来自MIT博士生的惊人发现: 只需对Transformer的特定层进行一种非常简单的修剪,即可在缩小模型规模的同时显著提...
阅读原文

文心4.0加持、0代码开发,自带流量的智能体平台来了!

新智元报道编辑:编辑部 【新智元导读】中国版的GPTs来了!百度「灵境矩阵」平台全新升级为「智能体平台」,开发成本大大降低,还能坐拥国内最完整的智能体生...
阅读原文

给Transformer降降秩,移除特定层90%以上组件LLM性能不减

机器之心报道 编辑:陈萍、杜伟MIT、微软联合研究:不需要额外训练,也能增强大语言模型的任务性能并降低其大小。在大模型时代,Transformer 凭一己之力撑起...
阅读原文

聊一聊AI三大核心问题:AI人才、AI产品、AI商业

夕小瑶科技说 分享来源 | 百度灵境矩阵 在生成式AI席卷全球的2023年,大模型在创造新变革的同时也给行业带来新的疑问。 当Agent、人形机器人等概念层出不穷,...
阅读原文

吞吐量提升近30倍!田渊栋团队最新论文解决大模型部署难题

新智元报道编辑:alan【新智元导读】大语言模型在实际部署中,存在内存和输入长度限制的问题。最近,田渊栋团队一举解决这两大难题,将推理系统的吞吐量提高...
阅读原文