标签:速度

性能提升、成本降低,这是分布式强化学习算法最新研究进展

机器之心原创 作者:Jiying 编辑:H4O深度强化学习(Deep Reinforcement Learning,DRL)是一种公认的解决连续决策问题的有效技术。为了应对 DRL 的数据低效...
阅读原文

CMU&ETH实现突破:机器狗点满敏捷值天赋,超高速穿越障碍,速度与安全兼备!

机器之心报道 机器之心编辑部足式机器人领域又一次迎来创新!CMU 与 ETH Zurich 团队联合研发了一个名为 「敏捷但安全」(ABS,Agile But Safe)的新框架,为...
阅读原文

​新一代注意力机制Lightning Attention-2:无限序列长度、恒定算力开销、更高建模精度

机器之心专栏 机器之心编辑部Lightning Attention-2 是一种新型的线性注意力机制,让长序列的训练和推理成本与 1K 序列长度的一致。 大语言模型序列长度的限...
阅读原文

ICLR接收结果出炉!有人提出异议:论文稍微超过9页,就被拒了??

白交 发自 凹非寺量子位 | 公众号 QbitAI一觉醒来,朋友圈、各个社区有人欢喜有人愁。 ICLR 2024接收结果揭晓!据统计,本届会议共收到了7262篇论文,整体接...
阅读原文

谷歌DeepMind机器人成果三连发!两大能力全提升,数据收集系统可同时管理20个机器人

丰色 发自 凹非寺量子位 | 公众号 QbitAI几乎是和斯坦福“炒虾洗碗”机器人同一时间,谷歌DeepMind也发布了最新具身智能成果。 并且是三连发: 先是一个主打提...
阅读原文

谷歌家务机器人单挑斯坦福炒虾机器人!端茶倒水逗猫,连甩三连弹开打

新智元报道编辑:桃子 Aeneas 【新智元导读】昨天的斯坦福炒虾机器人,一日内爆红中文互联网。谷歌DeepMind今天也毫不示弱地放出了自家的家务机器人,端茶倒...
阅读原文

2080 Ti就能跑70B大模型,上交大新框架让LLM推理增速11倍

上交大IPADS实验室 投稿量子位 | 公众号 QbitAI原本需要一张16万元的80G A100干的活,现在只需要一张不到2万元的24G 4090就够了! 上海交大IPADS实验室推出的...
阅读原文

GPT-4.5秘密解禁?网友灰度测试全网热议,OpenAI研究员回应全是幻觉

新智元报道编辑:编辑部 【新智元导读】近期,关于GPT-4.5提前泄露的消息在全网疯传,逼的OpenAI研究员甚至Altman本人下场否认,但这仍然挡不住愉快吃瓜的网...
阅读原文

练习时长两年半,特斯拉人形机器人Optimus二代上线

机器之心报道机器之心编辑部什么时候能买到?没有经过任何预告,特斯拉人形机器人「Optimus」第二代来了。12 月 13 日上午,马斯克突然在 X 上放出了一段视频...
阅读原文

大道至简?ETH研究团队提出简化版Transformer模型,综合效率明显提升

大数据文摘受权转载自将门创投‍2023年,Transformer已经成为人工智能领域中最受欢迎的基础模型,如今火热的大型语言模型,多模态大模型均由不同类型的Transfo...
阅读原文

真实再现生物脊柱功能,老鼠机器人也能像杰瑞一样灵活,Science Robotics 发布老鼠机器人最新研究成果

机器之心专栏机器之心编辑部12 月 7日,国际知名学术期刊《Science Robotics》发表来自德国慕尼黑工业大学和中山大学的研究团队的研究文章——「Lateral Flexio...
阅读原文

PyTorch造大模型“加速包”,不到1000行代码提速10倍!英伟达科学家:minGPT以来最好的教程式repo之一

西风 发自 凹非寺量子位 | 公众号 QbitAIPyTorch团队让大模型推理速度加快了10倍。且只用了不到1000行的纯原生PyTorch代码!项目名为GPT-fast,加速效果观感...
阅读原文

简化版Transformer来了,网友:年度论文

机器之心报道机器之心编辑部从大模型的根源开始优化。Transformer 架构可以说是近期深度学习领域许多成功案例背后的主力军。构建深度 Transformer 架构的一种...
阅读原文

M3 iMac 评测:撬动 Intel 钉子户的又一台利器

理想的家用电脑在 Mac 过渡自研芯片的两年半之后,我仍然使用着三年前 iMac 的谢幕之作。这台机器堪称 Intel 的末代机皇:10 核心 i9-10910 处理器,16GB 显...
阅读原文

iQOO 12 系列:电竞性能旗舰,从未如此优雅

但独属于赛道的风驰电掣,却又和日常的舒心闲适,形成了一个明显的对立面。在将速度具象化的夸张外观之下,性能赛车大多都选择了极致轻量化的内饰设计,车内...
阅读原文
1234