从架构、工艺到能效表现,全面了解LLM硬件加速,这篇综述就够了

从架构、工艺到能效表现,全面了解LLM硬件加速,这篇综述就够了

AIGC动态欢迎阅读

原标题:从架构、工艺到能效表现,全面了解LLM硬件加速,这篇综述就够了
关键字:加速器,性能,模型,架构,内存
文章来源:机器之心
内容字数:0字

内容摘要:


机器之心报道
编辑:陈陈、杜伟大语言模型(LLM)的发展同时往往伴随着硬件加速技术的进化,本文对使用 FPGA、ASIC 等芯片的模型性能、能效表现来了一次全面概览。对人类语言进行大规模建模是一个复杂的过程,研究人员花了几十年的时间才开发出来。这项技术最早可追溯于 1950 年,当时克劳德・香农将信息理论应用于人类语言。从那时起,翻译和语音识别等任务取得了长足的进步。
在这个过程中,人工智能 (AI) 和机器学习 (ML) 是技术进步的关键。ML 作为 AI 的一个子集,其允许计算机从数据中进行学习。一般来说,ML 模型要么是有监督的,要么是无监督的。
在接下来要介绍的这篇论文中《 Hardware Acceleration of LLMs: A comprehensive survey and comparison 》,来自西阿提卡大学的研究者重点介绍了有监督模型。论文地址:https://arxiv.org/pdf/2409.03384
根据论文介绍,深度学习模型分为生成式和判别式。生成式人工智能是深度学习的一个子集,它使用神经网络来处理标记和未标记的数据。大型语言模型 (LLM)


原文链接:从架构、工艺到能效表现,全面了解LLM硬件加速,这篇综述就够了

联系作者

文章来源:机器之心
作者微信:
作者简介:

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...