你的GPU能跑Llama 2等大模型吗?用这个开源项目上手测一测

AIGC动态1年前 (2023)发布 机器之心
21 0 0

你的GPU能跑Llama 2等大模型吗?用这个开源项目上手测一测

AIGC动态欢迎阅读

原标题:你的GPU能跑Llama 2等大模型吗?用这个开源项目上手测一测

关键字:模型,内存,项目,作者,上下文

文章来源:机器之心

内容字数:3295字

内容摘要:机器之心报道编辑:陈萍你的 GPU 内存够用吗?这有一个项目,可以提前帮你查看。在算力为王的时代,你的 GPU 可以顺畅的运行大模型(LLM)吗?对于这一问题,很多人都难以给出确切的回答,不知该如何计算 GPU 内存。因为查看 GPU 可以处理哪些 LLM 并不像查看模型大小那么容易,在推理期间(KV 缓存)模型会占用大量内存,例如,llama-2-7b 的序列长度为 1000,需要 1GB 的额…

原文链接:点此阅读原文:你的GPU能跑Llama 2等大模型吗?用这个开源项目上手测一测

联系作者

文章来源:机器之心

作者微信:almosthuman2014

作者简介:专业的人工智能媒体和产业服务平台

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...