为AI加速而生:英特尔的至强,现在能跑200亿参数大模型了

AIGC动态9个月前发布 机器之心
15 0 0

为AI加速而生:英特尔的至强,现在能跑200亿参数大模型了

AIGC动态欢迎阅读

原标题:为AI加速而生:英特尔的至强,现在能跑200亿参数大模型
关键字:英特尔,性能,处理器,模型,负载
文章来源:机器之心
内容字数:8487字

内容摘要:


机器之心报道
编辑:泽南实用化 AI 算力又升上了一个新台阶。
在人工智能的应用领域,出现了一些让人始料未及的趋势:很多传统企业开始选择在 CPU 平台上落地和优化 AI 应用。
例如制造领域在高度精细且较为耗时的瑕疵检测环节,就导入了 CPU 及其他产品组合,来构建横跨「云-边-端」的 AI 缺陷检测方案,代替传统的人工瑕疵检测方式。
再比如亚信科技就在自家 OCR-AIRPA 方案中采用了 CPU 作为硬件平台,实现了从 FP32 到 INT8/BF16 的量化,从而在可接受的精度损失下,增加吞吐量并加速推理。将人工成本降至原来的 1/5 到 1/9,效率还提升了约 5-10 倍。
在处理 AI 制药领域最重要的算法——AlphaFold2 这类大型模型上,CPU 同样也「加入群聊」。从去年开始,CPU 便使 AlphaFold2 端到端的通量提升到了原来的 23.11 倍;而现如今,CPU 让这个数值再次提升 3.02 倍。
上述这些 CPU,都有个共同的名字——至强,即英特尔® 至强® 可扩展处理器。
为什么这些 AI 任务的推理能用 CPU,而不是只考虑由 GPU 或 AI


原文链接:为AI加速而生:英特尔的至强,现在能跑200亿参数大模型了

联系作者

文章来源:机器之心
作者微信:almosthuman2014
作者简介:专业的人工智能媒体和产业服务平台

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...