标签:速度

AI芯片黑马Groq走红,英伟达又多了一个挑战者|甲子光年

天下武功,唯快不破。作者|苏霍伊‍‍‍ 编辑|赵健 本周,一匹 AI 芯片黑马 Groq 在业内走红。 Groq 推出了一款全新的 AI 芯片 LPU(Language Processing Unit...
阅读原文

比GPT-4快18倍,世界最快大模型Groq登场!每秒500 token破纪录,自研LPU是英伟达GPU 10倍

新智元报道编辑:桃子 好困 【新智元导读】卷疯了!世界最快的大模型Groq一夜之间爆火,能够每秒输出近500个token。如此神速的响应,背后全凭自研的LPU。一觉...
阅读原文

大模型最快推理芯片一夜易主:每秒500tokens干翻GPU!谷歌TPU人马打造,喊话奥特曼:你们也太慢了

白交 克雷西 发自 凹非寺量子位 | 公众号 QbitAI太快了太快了。 一夜间,大模型生成已经没什么延迟了……来感受下这速度。 眼花缭乱了吧,生成速度已经接近每秒...
阅读原文

10倍英伟达GPU:大模型专用芯片一夜成名,来自谷歌TPU创业团队

机器之心报道 编辑:泽南、蛋酱能带来完全不同的大模型体验。我们知道,大模型到 GPT-3.5 这种千亿体量以后,训练和推理的算力就不是普通创业公司所能承担的...
阅读原文

英伟达版ChatGPT来了,PC端部署,很GPU

金磊 发自 凹非寺量子位 | 公众号 QbitAI英伟达推出了自家版本的ChatGPT,名字很有GPU的味道—— Chat With RTX。 英伟达的这款AI聊天机器人和目前主流的“选手”...
阅读原文

性能提升、成本降低,这是分布式强化学习算法最新研究进展

机器之心原创 作者:Jiying 编辑:H4O深度强化学习(Deep Reinforcement Learning,DRL)是一种公认的解决连续决策问题的有效技术。为了应对 DRL 的数据低效...
阅读原文

CMU&ETH实现突破:机器狗点满敏捷值天赋,超高速穿越障碍,速度与安全兼备!

机器之心报道 机器之心编辑部足式机器人领域又一次迎来创新!CMU 与 ETH Zurich 团队联合研发了一个名为 「敏捷但安全」(ABS,Agile But Safe)的新框架,为...
阅读原文

​新一代注意力机制Lightning Attention-2:无限序列长度、恒定算力开销、更高建模精度

机器之心专栏 机器之心编辑部Lightning Attention-2 是一种新型的线性注意力机制,让长序列的训练和推理成本与 1K 序列长度的一致。 大语言模型序列长度的限...
阅读原文

ICLR接收结果出炉!有人提出异议:论文稍微超过9页,就被拒了??

白交 发自 凹非寺量子位 | 公众号 QbitAI一觉醒来,朋友圈、各个社区有人欢喜有人愁。 ICLR 2024接收结果揭晓!据统计,本届会议共收到了7262篇论文,整体接...
阅读原文

谷歌DeepMind机器人成果三连发!两大能力全提升,数据收集系统可同时管理20个机器人

丰色 发自 凹非寺量子位 | 公众号 QbitAI几乎是和斯坦福“炒虾洗碗”机器人同一时间,谷歌DeepMind也发布了最新具身智能成果。 并且是三连发: 先是一个主打提...
阅读原文

谷歌家务机器人单挑斯坦福炒虾机器人!端茶倒水逗猫,连甩三连弹开打

新智元报道编辑:桃子 Aeneas 【新智元导读】昨天的斯坦福炒虾机器人,一日内爆红中文互联网。谷歌DeepMind今天也毫不示弱地放出了自家的家务机器人,端茶倒...
阅读原文

2080 Ti就能跑70B大模型,上交大新框架让LLM推理增速11倍

上交大IPADS实验室 投稿量子位 | 公众号 QbitAI原本需要一张16万元的80G A100干的活,现在只需要一张不到2万元的24G 4090就够了! 上海交大IPADS实验室推出的...
阅读原文

GPT-4.5秘密解禁?网友灰度测试全网热议,OpenAI研究员回应全是幻觉

新智元报道编辑:编辑部 【新智元导读】近期,关于GPT-4.5提前泄露的消息在全网疯传,逼的OpenAI研究员甚至Altman本人下场否认,但这仍然挡不住愉快吃瓜的网...
阅读原文

练习时长两年半,特斯拉人形机器人Optimus二代上线

机器之心报道机器之心编辑部什么时候能买到?没有经过任何预告,特斯拉人形机器人「Optimus」第二代来了。12 月 13 日上午,马斯克突然在 X 上放出了一段视频...
阅读原文

大道至简?ETH研究团队提出简化版Transformer模型,综合效率明显提升

大数据文摘受权转载自将门创投‍2023年,Transformer已经成为人工智能领域中最受欢迎的基础模型,如今火热的大型语言模型,多模态大模型均由不同类型的Transfo...
阅读原文
1234