标签:集群
如何为混合AI打好算力地基?联想集团已率先交卷
混合AI时代算力的“万全之策”。 作者|程茜 编辑|漠影 如今,个人大模型和企业大模型以及在其基础上发展出的个人智能体和企业智能体,将与公有大模型共存互补,...
千卡集群算力竞赛,国产大模型终于等来了“中国英伟达”|甲子光年
国产算力新突破。作者|赵健 在替代英伟达的道路上,国产算力一直面临一个“鸡生蛋、蛋生鸡”的难题。 当国产芯片问世之后,要想真正用起来,需要种子客户用实...
国产GPU重大利好!“中国英伟达”千卡集群已就位
金磊 发自 凹非寺量子位 | 公众号 QbitAI算力基础设施建设,北京市有了最新的大动作—— 《北京市算力基础设施建设实施方案(2024-2027年)》。 其中,《方案》...
百模大战引爆「千卡集群竞赛」,“中国英伟达”交卷了
大模型引发AI算力荒,新一代千卡集群喂饱国产新苗子。 作者|三北 编辑|漠影 大模型正引发一波新的AI算力荒,从此前的芯片紧缺,上升为AI算力集群级的饥渴症。...
OpenAI陷巨大算力荒,国内大厂抢先破局!打破单芯片限制,算力效率提升33%
新智元报道编辑:编辑部 【新智元导读】一切计算皆AI已成为行业共识。大模型参数规模从千亿走向万亿,从单一走向MoE,对算力的需求愈加庞大。我们需要理清的...
对话国产“算力黑马”:27亿元大单背后,英博数科周韡韡的AGI探索之路
▲图片由AI生成 从ChatGPT到Sora,通用模型为王,智算产业现“隐形护城河”。 作者|国仁 李水青 编辑|漠影 当下中国科技圈,什么样的创业公司最吃香?或许是身处...
4万亿晶体管5nm制程,全球最快AI芯片碾压H100!单机可训24万亿参数LLM,Llama 70B一天搞定
新智元报道编辑:桃子 好困 【新智元导读】AI世界的进化快的有点跟不上了。刚刚,全球最强最大AI芯片WSE-3发布,4万亿晶体管5nm工艺制程。更厉害的是,WSE-3...
Meta公布Llama 3训练集群细节!储备60万块H100迎接AGI
新智元报道编辑:润 【新智元导读】LLM开源从Infra做起!Meta公布了自己训练Llama 3的H100集群细节,看来Llama 3快来了。每年3月份,照例各家大厂又要开始秀...
为Llama 3铺路:Meta推出2个24K GPU集群|甲子光年
35万张 H100 的算力平台将为大模型领域带来什么改变?编译|艾伦 编辑|栗子 3月12日,Meta 推出2个 24KGPU集群,为训练 Llama3 构建超强资源池。 在 Meta 工...
Llama3训练集群揭秘,共24,576 个 GPU
点击上方蓝字关注我们“Meta 公司透露了其专为 AI 训练设计的先进硬件基础设施细节。这些集群包括 24,576 个 GPU,采用了创新的网络结构解决方案,为支持当前...
Meta公开 Llama-3基础训练设施:使用了49,000个H100
来源 | 授权转载自AIGC开放社区(公众号ID:AIGCOPEN) 3 月 13 日,社交、科技巨头 Meta 在官网公布了两个全新的 24K H100 GPU 集群(49,152 个),专门用于...
专为训练Llama 3,Meta 4.9万张H100集群细节公布
机器之心报道 机器之心编辑部只想知道 Llama 3 何时能来?生成式大模型给人工智能领域带来了重大变革,人们在看到实现通用人工智能(AGI)希望的同时,训练、...
前谷歌科学家离职创业1年,自述训练LLM卡在算力上!买卡就像中彩票,Karpathy转赞
新智元报道编辑:桃子 【新智元导读】一家大模型初创公司从创立到训练出大模型,要克服怎样的难题?前谷歌科学家离职后创业一年,发文自述算力是训练大模型的...
「还是谷歌好」,离职创业一年,我才发现训练大模型有这么多坑
机器之心报道 编辑:蛋酱、小舟Karpathy:中肯的,一针见血的。 如何在不到一年的时间里创办一家公司、筹集资金、购买芯片,并搭建出追赶 Gemini pro/GPT 3.5...
字节万卡集群技术细节公开:2天搞定GPT-3训练,算力利用率超英伟达Megatron-LM
鱼羊 发自 凹非寺量子位 | 公众号 QbitAI随着对Sora技术分析的展开,AI基础设施的重要性愈发凸显。 来自字节和北大的一篇新论文在此时吸引关注: 文章披露,...