标签:精度

Nvidia B100/B200/GB200 关键技术解读

对GTC keynote中关于AI基础设施的关键信息整理如下,分三个部分: 芯片 服务器 Superpod 芯片 1. GPU芯片 晶体管数: B200 GPU的晶体管数量是现有H100的两倍...
阅读原文

GPT-4级模型Grok开源可商用!卷底层大模型的公司危了

夕小瑶科技说 原创作者 | 醒醒上周,马斯克宣布 xAI 将开源 Grok。 刚刚,马斯克终于兑现诺言,xAI 宣布开源了 Grok-1 的模型权重和网络架构。 Grok-1 是一个...
阅读原文

Hugging Face:2023开源LLM大爆发,数据竞赛已开启!

新智元报道编辑:alan 【新智元导读】2023年的LLM开源社区都发生了什么?来自Hugging Face的研究员带你回顾并重新认识开源LLM2023年的大语言模型(LLM),让...
阅读原文

深度网络数据编码新突破,上交大SPARK登上计算机体系结构顶会

机器之心专栏 机器之心编辑部随着深度神经网络(DNNs)模型在规模和复杂性上的迅速增长,传统的神经网络处理方法面临着严峻的挑战。现有的神经网络压缩技术在...
阅读原文

计算需求降为1%! 清华大学首次提出「二值化光谱重建算法」,代码全开源|NeurIPS 2023

新智元报道编辑:LRS【新智元导读】相比全精度CNN,清华大学提出的二值化光谱重分布网络BiSRNet只需0.06%的存储空间和1%的计算代价,性能几乎持平。相比于常...
阅读原文

2023戈登贝尔奖揭晓:Frontier超算「量子级精度」材料模拟获奖

将 ScienceAI设为星标第一时间掌握新鲜的 AI for Science 资讯编辑 | 泽南、杜伟戈登贝尔奖(ACM Gordon Bell Prize)设立于 1987年,由美国计算机学会颁发,...
阅读原文

老黄H100再破纪录,4分钟训完GPT-3!全新「版」H20、L20和L2曝光,性能史诗级缩水

新智元报道编辑:桃子 好困【新智元导读】英伟达H100再次刷榜了,不到4分钟就训完GPT-3,比6月成绩提升3倍。另外,特供版H20、L20和L2性能全都爆出。H100再次...
阅读原文

用FP8训练大模型有多香?微软:比BF16快64%,省42%内存

机器之心报道编辑:Panda低精度训练是大模型训练中扩展模型大小,节约训练成本的最关键技术之一。相比于当前的 16 位和 32 位浮点混合精度训练,使用 FP8 8 ...
阅读原文

LLaMA微调显存需求减半,清华提出4比特优化器

机器之心专栏作者:李炳睿大模型的训练和微调对显存要求很高,优化器状态是显存主要开销之一。近日,清华大学朱军、陈键飞团队提出了用于神经网络训练的 4 比...
阅读原文

Nature:人工智能芯片!

来源:彤心未泯(学研汇 技术中心)、纳米人具有数十亿参数的人工智能(AI)模型可以在一系列任务中实现高精度,但它们加剧了传统通用处理器(例如图形处理单...
阅读原文

混合精度下位置编码竟有大坑,llama 等主流开源模型纷纷中招!百川智能给出修复方案

作者 | 百川智能 位置编码技术是一种能够让神经网络建模句子中 Token 位置信息的技术。在 Transformer 大行其道的时代,由于 Attention 结构无法建模每个 tok...
阅读原文
123