标签:矩阵

沉浸式线性代数教材,不懂哪里点哪里,网友:天花板级别

克雷西 发自 凹非寺量子位 | 公众号 QbitAI线性代数太抽象学不懂?没关系,三名来自瑞典的学者,为我们带来了沉浸式的教程。 从向量到矩阵、从概念到运算,几...
阅读原文

从零开始手搓GPU,照着英伟达CUDA来,只用两个星期

机器之心报道 编辑:泽南、小舟从学习芯片的基础知识开始。「我花两周时间零经验从头开始构建 GPU,这可比想象的要难多了。」总有人说老黄的芯片供不应求,大...
阅读原文

北京车展 | 超跑 SUPER 9 细节实拍!方程豹全矩阵亮相北京车展

北京车展 | 超跑 SUPER 9 细节实拍!方程豹全矩阵亮相北京车展 , 2024-04-2619:18 , ,…
阅读原文

极长序列、极快速度:面向新一代高效大语言模型的LASP序列并行

AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术...
阅读原文

芯片战争早已打响!谷歌15个月打造首个TPU,欲和老黄平起平坐

新智元报道编辑:alan 【新智元导读】在英伟达统治AI时代硬件的当下,谷歌的TPU却开辟了另一条道路。今天,小编带你了解第一块TPU的前世今生,同时揭开TPU架...
阅读原文

拿CPU搞AI推理,谁给你的底气?

金磊 梦晨 发自 凹非寺量子位 | 公众号 QbitAI大模型的训练阶段我们选择GPU,但到了推理阶段,我们果断把CPU加到了菜单上。 量子位在近期与众多行业人士交流...
阅读原文

清华姚班本科生连发两作,十年来最大改进:矩阵乘法接近理论最优

选自QuantaMagazine 机器之心编译 作者:Steve Nadis 编辑:杜伟、大盘鸡通过消除「隐藏的低效」问题,计算机科学家提出了一种比以往更快的大型矩阵相乘新方...
阅读原文

清华、哈工大把大模型压缩到了1bit,把大模型放在手机里跑的愿望就快要实现了!

机器之心专栏 机器之心编辑部近期,清华大学和哈尔滨工业大学联合发布了一篇论文:把大模型压缩到 1.0073 个比特时,仍然能使其保持约 83% 的性能!自从大模...
阅读原文

今日arXiv最热NLP大模型论文:中科院发布!针对初学者的大语言模型综述

夕小瑶科技说 原创作者 | 谢年年、Python大语言模型,作为自然语言处理领域火热的方向,如今已经真正“破圈”成为了科技界的明星。特别是其中的佼佼者——ChatGPT...
阅读原文

今日arXiv最热NLP大模型论文:做到头了!清华和哈工大把大模型量化做到了1比特

夕小瑶科技说 原创作者 | 谢年年在追求更高效的机器学习模型部署时,模型量化技术应运而生,它通过降低权重矩阵的位宽来显著减少大型语言模型的存储和计算需...
阅读原文

单GPU就能压缩模型,性能不变参数少25%!微软提出模型稀疏化新方法

新智元报道编辑:拉燕 【新智元导读】大语言模型之大,成本之高,让模型的稀疏化变得至关重要。众所周知,对于大语言模型来说,规模越大,所需的算力越大,自...
阅读原文

我们还需要Transformer中的注意力吗?

选自interconnects 作者:Nathan Lambert 机器之心编译 机器之心编辑部状态空间模型正在兴起,注意力是否已到尽头?最近几周,AI 社区有一个热门话题:用无注...
阅读原文

今日arXiv最热NLP大模型论文:微软提出SliceGPT,删除25%模型参数,性能几乎无损

夕小瑶科技说 原创作者 | 松果、Python引言:探索大型语言模型的高效压缩方法随着大型语言模型(LLMs)在自然语言处理领域的广泛应用,它们对计算和内存资源...
阅读原文

量子计算背后的力量:矩阵分解的深层影响

在现代科学的众多领域中,矩阵分解作为一种数学工具,其重要性不容小觑。特别是在物理学和计算科学中,矩阵分解不仅为理解复杂系统提供了关键的理论支撑,也...
阅读原文

大模型也能切片,微软SliceGPT让LLAMA-2计算效率大增

机器之心报道 编辑:张倩、佳琪删除权重矩阵的一些行和列,让 LLAMA-2 70B 的参数量减少 25%,模型还能保持 99% 的零样本任务性能,同时计算效率大大提升。这...
阅读原文
123