如何提供算力“最优解”?12月10-11日,由「甲子光年」主办的“万千流变 一如既往”2024甲子引力年终盛典在北京中关村国家自主创示范区展示交易中心召开。在12月11日下午举行的《算力江湖:如何提供算力“最优解”》圆桌论坛中,来自算力和芯片行业一线的嘉宾们分享了他们对2024年算力行业的看法。在赛智伯乐投资合伙人蔡哲的主持下,各位嘉宾为中国算力行业的突围之道提供了深刻的见解。赛智伯乐投资合伙人蔡哲首先各位嘉宾分享了对2024年国内算力和芯片行业的直观感受。北电数智CMO、战略与市场负责人杨震认为,算力中心建设在今年迎来重要转折点,从过去的大规模快速扩张阶段,逐步向持续建设与高效运营阶段过渡。在芯片域,国产算力第一梯队已初步成型,在特定模型训练及推理场景应用中,已能够实现从基础可用到优质好用的关键转变。北电数智CMO、战略与市场负责人杨震行云集成电路创始人季宇从芯片行业视角出发,指出2024年度行业发展的显著特征是从训练向推理的重心转移。随着大模型应用的逐步落地,国内模型在性能上已基本追GPT水,芯片行业竞争焦点也随之向推理域倾斜。清程极智CEO汤雄超表示,国产算力的发展速度超出预期,随着国产算力生态的日益完善,越来越多清程极智的客户开始尝试采用国产算力资源,并取得了令人满意的效果,部分国产芯片客户已启动上市筹备流程,充分彰显了国产算力巨大的成长潜力。清程极智CEO汤雄超九章云极DataCanvas联合创始人暨CTO尚明栋提到,智算中心建设呈现出迅猛发展的态势,但同时也引发了关于算力泡沫的争议。从算力消纳的实际情况来看,众多企业对于低价格、高弹性算力的需求尚未得到充分满足,市场供需关系存在结构性失衡,这迫切需要专业算力运营商的大力支持与协同发展。在算力调度提升资源利用率与降低成本方面,杨震分享了北电数智的创实践,例如在异构算力协同方面,构建统一通信库、全面补齐算子库并实现自动调优,同时开展算法加速工作。汤雄超介绍了清程极智的系统软件解决方案,例如在系统软件层面,从底层编译优化、上层调度管理、内存管理到网络优化等多个通用维度入手,同时充分挖掘国产算力适配的潜在优势间。针对不同规模客户,清程极智也设计了灵活的成果交付模式。据尚明栋介绍,九章云极DataCanvas借助Alaya NeW台实现了算力弹性调度,成功将算力的占用与使用进行解耦,避免了传统模式下算力在占用期间无法被其他用户复用而造成的资源浪费现象。同时九章云极DataCanvas推出了“算力包”产品,改变以往金属按时间收费的传统方式,基于计算量进行计费,极大地提高了用户的算力使用率。九章云极DataCanvas联合创始人暨CTO尚明栋针对从可用到好用的过程,季宇调行云并非简单追求芯片价格的降低,而是借鉴PC产业兴起的成功经验,以英特尔8086处理器为例,致力于在显存维度实现极致优化,即便在一定程度上牺牲算力性能,也要确保芯片价格能够降至消费级水,从而让用户在端侧和云端都能以较低成本获得高质量的模型体验。展望2025年算力和芯片市场,杨震期望更多智算中心能够在持续建设的基础上实现有效运营,不仅能够满足模型训练需求,还能灵活应对推理任务需求,形成具有中国特色的国产算力市场格局。季宇表示,希望在未来一两年内,能够复刻当年X86架构推动PC和互联网兴起的辉煌历程,在算力行业成功实现从传统架构向型高效架构的转型,开启算力行业发展的纪元。行云集成电路创始人季宇汤雄超坚定地认为,国产智能算力行业将继续沿着集群化和国产化的两大发展趋势稳步前行,随着技术创与生态建设的不断推进,国产算力生态也会越来越繁荣。尚明栋乐观地预测,随着算力生态的持续优化完善以及国产GPU厂商技术的快速迭代,模型微调和推理阶段的增长速度将实现指数级提升,为人工智能在各行业的广泛应用提供大的算力支撑。以下为圆桌论坛的全部内容,经过编辑整理:蔡哲:各位嘉宾,大家好。首先要感谢「甲子光年」为我们准备了这样一个议题。这个议题非常贴切——所谓的江湖,充满了刀光剑影。今年最后一个月,行业仍在连续曝出许多闻,比如谷歌发布了最的量子芯片,英伟达因为涉嫌反垄断被立案调查,算力议题在今年最后一个月还是这么热闹。从我们的角度来看,算力可能会逐渐融入我们每个人的生活,就像我们今天使用自来水、电力和互联网通信一样,未来算力也可能成为我们生活的一部分。在当前阶段,甚至有一个论断叫算力等于国力。谈到AI,很多时候也是和算力挂钩的。今年我看到的数据显示,全国建的智算中心超过250个,总投入达到万亿级别。算力中心的数量、国产算力芯片以及整个算力芯片的市场量级也在不断提升。但是在这样的大背景下,中国的算力行业其实也存在一些挑战,包括算力的供给与需求存在错位,部分地区智算中心的实际运营与规模构想存在很大的差异。今天我们邀请到了四位算力和芯片行业优秀的从业者,来给我们分享对整个算力行业的见解,同谋求整个行业的解决方案,让算力从可用变得好用,实现算力产业的高质量发展。首先我们请各位嘉宾进行简单的自我介绍,同时讲一讲我们所在公司今年的重要进展。有请杨总。杨震:大家好,我是北电数智的杨震,负责战略和市场。北电数智是一家非常年轻的人工智能国企。在这一年我们首先做出了混元异构的算力调度软件,并且也做出了芯片和模型层、芯片和框架层的适配台,目前能够让9种芯片和23个基座大模型进行普适的交叉适配。我们马上还要推出训推台,也推出了可信数据间的产品,与11月国家公布的《可信数据间发展行动计划(2024—2028年)》相契合。以上是软件层面。硬件层上,我们今年年底马上建成北京市在五环之内唯一的E级智算中心,叫作北京数字经济算力中心。第三件事就是我们从今年1月23日开始,我们也建了一个江湖,叫作AI江湖。不同于刚才哲总提到的算力江湖,我们所建的江湖包括一系列的闭门会、开门会,把我们同行的伙伴们聚在一起进行思想碰撞。我们相信在全的时代,人工智能充满不确定性,每一位从业者其实都是江湖中的英雄,因为大家都充满了勇气。谢谢。季宇:大家好,我是行云的创始人季宇。行云是一家非常年轻的公司,也是今年刚开始起步的国产芯片公司。在这样一个时间点做芯片,也是为了解决很多嘉宾都讲过的算力降本问题。在大模型时代,为了让AI变得普惠,让大模型应用成本不断下降,我们想从芯片出发,做一款在显存维度非常极致的GPU芯片来满足这样的需求。也希望通过我们的芯片能够把AI的成本变得非常低,成为人人都用得起的芯片。汤雄超:大家好,我是清程极智的CEO汤雄超。清程极智是去年这个时候成立的AI Infra企业。我们所聚焦的是通过核心的基础软件赋能国产算力,为整个人工智能行业带来高性能、低成本的算力系统。具体来说,我们主要会提供面向大模型训练和推理场景的软件解决方案,过去一年里,我们在技术产品和商业化上都取得了比较好的进展。在技术上,我们对大规模并行训练系统“八卦炉”做了进一步打磨和升级,目前已经适配了好几款国产算力芯片,可以在大规模的国产算力集群上实现模型训练。在推理侧,我们今年拓展了适配的国产芯片种类,进一步提升了绝对性能和性价比,在很多场景下已经可以跟国外的主流方案相比较。商业化方面,我们已经和许多国产芯片公司以及国产大模型公司达成合作,希望在未来继续携手行业伙伴同建设国产的算力生态。谢谢。尚明栋:大家好,我是九章云极DataCanvas的尚明栋。我们公司是一家人工智能基础设施提供商,围绕智算中心进行建设和运营,今年我们有五个智算中心投入运营。我们依托今年发布的Alaya NeW台,在我们的智算中心里既提供弹性的算力,同时又有完整的,从训练到推理的大模型工具链支持上层应用。我们致力于提供低门槛、低价格的普惠算力。谢谢大家。蔡哲:今天我们的四位嘉宾包含了算力的各个维度。其实这两年,特别是今年,如果说要评选一个热门词,我觉得算力即便不是第一,至少也是第一梯队。到了年末,各位能不能够用一两句话来针对2024年国内的算力和芯片行业,聊一聊你们最直观的感受,还是从杨总开始。杨震:我们正在建北京数字经济算力中心,包括刚才也提到今年国内出现非常多算力中心,所以我认为今年是一个分水岭,从前几年的“大干快上”,到现在应该进入所谓持续建设、有效运营的阶段。这是我的第一个观察。第二,芯片行业整体向好,因为有压力就有动力。我们看到国产算力的第一梯队已经形成,而且随着推理需求的展开以及自身的性能,包括我们做软件层、加速层这些方面的努力,在一定参数量以内的模型训练以及各种的推理场景上,国产的能力已经跟上来了,实现了从可用到好用的转变。季宇:从芯片行业来看,今年最大的特点是从训练转向推理,随着大模型的很多应用开始尝试落地,包括预训练上面,其实国内的模型也基本追上了GPT的水,越来越多的应用探索开始展开。所以大家也从过去竞争训练芯片的维度,慢慢转向推理维度。训练跟推理有很多差异,这些差异其实也给国产算力芯片提供了很多的可能性和机会。我们也希望在这样的情况下,在满足未来更加宏大、增长更加剧烈的推理需求上,能够把握住国产芯片的可能性。汤雄超:从清程极智的角度来看,今年很明显的感受是国产算力的发展超出了我们的预期。一方面,是随着国产算力生态的不断完善,非常多客户,无论是要做大模型的训练,还是大模型的推理,都开始愿意尝试国产算力,最终也取得很不错的效果。清程极智也有很多客户是国产芯片公司,最近也了解到有不少客户已经启动上市流程,这也让我们非常坚定地认为,国产算力未来有非常好的成长间。尚明栋:涉及智算中心,我们今年能看到,智算中心的建设处于高歌猛进的状态,这也是为什么大家会感觉到算力有可能会有泡沫。但是我们又听到了相反的声音,就是从算力消纳上,依然有非常多的企业对于低价格、高弹性的算力处在需求不满足的状态,我们看到了供需市场上结构化的失衡。这需要中间有算力生态和算力运营商的支持。后续我们可以展开讨论。蔡哲:我自己是做投资的,做投资有一个天然的秉性,就是要乐观看多。所以我显然非常看好算力。我大概简单总结一下,杨总提到了“大干快上”,季总提到从训练转向推理,汤总提到了国产算力的布局,开始用国产去替代国外,而尚总提到了我们接下来要讨论的问题,就是如何在看多的过程中挤泡沫。外界确实也有泼冷水的,比如高盛的分析师提出全世界一两年内在算力投入不止有几万亿美元,美股打造出了“算力七姐妹”,每家的市值都突破了万亿美金。但这么多资金给算力投下去,目前来看,对于GDP的拉动,整个就业市场和创市场也好,都没有很多商业化的回馈,所以这里面存在很大泡沫。在座的四位一线从业者如何看待AI的泡沫化?杨震:其实我们看2023年,整个人工智能行业,包括算力层、模型层和应用层的话,90%的收入来自算力,7%是来自模型,3%来自应用,这是全球的数据,但投资就基本反过来。大部分投资走向模型,其次是走向应用,少量流向算力。我认为是人工智能时代相对于信息IT时代,它更厚重,层次更多,所以需要逐步转化。第二,算力究竟是泡沫还是需求不足?我同意明栋总说的结构性矛盾。之前智算中心的“大干快上”,其实就是建设,堆服务器和芯片,目的是应对模型训练。通常模型训练的厂商知道怎么用芯片和智算中心,所以没问题。但当下模型训练放缓,其实就出现一个核心问题。超大规模智算中心是为了模型训练而建,但是模型训练三个月后,很多智算中心就要关机断电。大家会问为什么它不转向推理?因为智算中心调极致算效,极致能效,算效之于训练和之于推理是不一样的。细看推理部分,我们还可以切分成量推理,包括互联网用户;还有高频推理,比如说交通等域;此外还有低频推理。不同的域对智算中心提出完全不一样的运营要求,包括调度策略,如何使用多模态模型、模型融合策略等等,都是不同的要求。而且大模型训练阶段更看重如何快速解决问题,但在推理时代,首先要解决首字延迟的问题,同时还要解决解码延迟问题,这些都解决掉了,就可以继续解决提升吞吐量的问题。而且量推理时,我要琢磨冷启动等,它对整个智算中心的服务,包括生态能力上,都提出完全不一样的需求。原来只为了模型训练而建的智算中心,无法面向中腰部的互联网客户,甚至个人开发者和团体提供非常敏捷、普惠的算力服务,这也是为什么我刚才提到说我们看到分水岭,从今年开始非常多智算中心进入所谓持续建设,有效运营的阶段,做智算中心一定要懂芯片、懂模型,而且要懂数据。现在模型训练暂缓,最主要的原因可能也是因为开源数据集的枯竭,同时我们也看到大量的专项数据其实握在手里,大量产业数据、行业数据握在企业手里。这些数据如何有效释放出来,也需要相应的技术和工具。这也是我们布局可信数据间的原因。这三层搞明白了,然后对外提供普适的模型服务、工具链和套件,包括一些垂类模型,场景以及数据的打开,才能够通过这些燃料把整个人工智能生态培养起来,之后智算中心就会得到自然的消纳。回到一开始说的,其实主要还是结构性矛盾。有人有拥有算力的困惑,也有人有用不到算力的难处,需要把各层能力建起来才能解决掉。季宇:我从芯片行业讲一个不一样的视角。其实今天我们看到很多的应用,也看到了模型成本在软件,包括调度层面不断下降。但是从芯片的角度来讲,今天的AI基础设施其实跟上个世纪80年代的大型机非常像,智算中心里面用的很多服务器也好,芯片也好,都是非常昂贵的,虽然大家努力使它的利用率变高,让它的效率,包括个调度优化变得越来越高,但它的底座其实很像大型机。现在下游的应用需求非常旺盛,就像上世纪80年代一样,计算机本身可以对人类社会带来巨大的影响,同样今天的AI也可以。而最终让整个互联网产业还有PC兴起的,最重要的还是它的底座,也就是X86。从芯片的角度,今天更重要的并不是去做越来越的大型机,整个计算机的形态一定要像类似于从大型机到X86这样的转变,才能促成AI产业和互联网产业的繁荣。这是我们这家公司希望去推动的事情,在大型机的基础之上落地AI产业跟互联网产业,它永远存在巨大的结构性矛盾。刚刚哲总讲的巨大的泡沫其实也一样,如果家家户户都能用上PC,那算力的投入会非常大,大家对于算力的需求也会膨胀。但这样的需求反过来也有可能这个行业,所以我们一定要推动从大型机往PC的转变,往X86的转变,才能更好地促成这件事。所以我们也希望去携手在座的各位嘉宾,包括生态的上下游,一起来往这样的目标推动,才能更好地把泡沫挤掉,走向落地。从芯片的角度,很多芯片都在往怎么做更好的大型机角度去思考,但我觉得,如果我考虑怎么做好一个服务于今天的PC,还有互联网的X86,其实更有意义。汤雄超:我非常赞成杨总和季总的观点,现在算力的供给和需求是结构性的矛盾。从清程极智的角度来看,有效的算力供给是不足的。可能大家会看到很多建的智算中心使用率不是特别高,但它并不是无人问津的,而是大家缺算力,后来去智算中心看了,发现不太能用得起来,所以最后没用。本质上是因为算力在硬件上已经建好,但还缺乏软件生态上的连接,让客户觉得没有办法达到开箱即用的状态,那他们可能会去选择其他解决方案。随着算力软件生态的成熟,包括我们前面提到的整个AI算力需求的增长,最终整个市场会回归更加健康的状态。尚明栋:大家说的AI算力的泡沫化,可能视角来自不同的地方。一个视角是经济,大家投资算力的建设,希望获得对应的回报,这些回报最终可能体现在投资方的回报以及落地场景的回报。现在我们都知道建智算中心,如果算力供给没有问题,建智算中心的周期可以非常短,差不多三个月,几个亿的投入,1000P,2000P的算力其实就可以建设起来。但是真正从消纳的角度来说,它需要一个生态,这个生态既有地方生态,也有行业生态,而生态的建立需要一些时间。现在来看,投入和产出上出现了阶段性的失衡,这是我们当前处于AI生态建设的阶段所导致的,我们需要更长时间完成完整的生态建设。第二,很多企业觉得一提到算力建设就有非常大的数字,200多个智算中心,折合成算力也是几十万P的算力,但是从实际需求上来说,又觉得门槛过高。大厂的能力比较,他们会自建,同时他们的技术能力也比较。他们有了这些智算中心的金属,可以自己在里面搭框架,建设infra,对他们来说技术门槛是比较低的。但是对于一般的技术型企业,如果从头开始去用算力,找到对应的场景,并验证对他们行业的价值,门槛会非常高。所以中间也需要基础设施这一层,让算力更好地唾手可得,或者说成为成本比较低的基础设施。现在看这还需要一段时间,也需要我们整个行业生态的同进步。蔡哲:感谢四位嘉宾的精彩发言,干货非常多。我总结一下,尚总提到目前的核心问题在于生态尚未完全建立,即使存在泡沫,一旦生态成熟,这些问题将不再是障碍。汤总的观点是,算力资源虽然丰富,但如果软件层面不支持,这些算力也无法发挥作用。因此,我们需要软件来像开凿运河一样,让算力流动起来。季总的观点,我用一个形象的比喻来说明,他认为我们已经进入了智能手机时代,但目前的硬件设施却还停留在大哥大的水,与时代发展不匹配,需要进一步改进。杨总则指出了一个现实问题,即算力分配的不均衡,有的人算力过剩,而有的人却极度缺乏,这表明算力调度存在很大的问题。接下来,我想针对三位在算力调度域的创业者提出一个问题。在提高算力资源利用率和降低成本的过程中,是否有一些创的产品、运营模式或技术可以与大家分享?我们还是从杨总开始。杨震:我觉得大家的很多技术路线也类似,因为目标都是要提高算力的利用率。我们今年更多是在异构算力的协同作战上做了一些工作,为了让不同的国产算力集群能够协同作战,也可以和进口算力协同作战,其实有很多细致的工作要做,比如为了和模型进行普适的交叉适配,要建立统一的通信库,算子库的全面补齐,自动调优。为了实现整体性能提升,我们也做了算法加速的相关工作,包括像稀疏数据集的优化等等。目前在我们的异构调度软件纳管下,国产芯片通过算法加速,可以将首字延迟优化10倍,解码延迟优化10倍,在推理的表现上,吞吐量可以提升30倍。基本一般芯片性能上能提升2到3倍,那吞吐量能够提升8~9倍。这是我们做的第一件事情。第二,我们把所有的芯片集群打散,只要是在同一个计算中心里面不同集群它依然可以看作一个整体,成为一块巨大的虚拟的GPU。一块巨大的虚拟GPU就相当于解决金属租赁的算力冗余和使用方的不衡,是非常精细化的运营方式。初步估算,智算中心使用我们的软件,生产效率可以提升50%。我们也在继续攻关潮汐调度的策略,进一步实现100%的效率提升。和金属租赁相比,用我们的软件可以做到100张卡等同于原来150张或者200张卡。同时我们还无形中解决另一个问题。国产芯片有自己的擅长之处,但可能不能做到全域的任务支撑。但形成多级混池和混元异构后,就可以对外无差别提供算力服务。两周前我们推出了国产算力POC台,也是场景验证台。我们邀请场景持有方,无论金融、医疗、政务等各种行业场景都可以在这个POC台上来体验国产算力的高质量服务。另外刚才提到可信数据间,因为国家已经颁布了未来三年的计划,我们认为数据是大模型的燃料,可信数据间从侧面也可以有效支撑更多模型训练,这个是我们做的事情,谢谢。汤雄超:清程极智做的是系统软件,包括底层的编译优化,到上层的调度,或者说内存管理、网络的优化等,这些是比较通用的。另外如果从进一步降低算力成本的角度来看,对国产算力的适配还有非常大的间,因为国产芯片性价比上很有优势。怎么样把提升算力的利用率,降低算力成本的成果交付到用户手里?刚才提到的优化技术都是公开的,学术界论讲过很多次了,但难点是如何让客户真正用上。对于我们来说,大型客户我们可以直接做软件的授权交付,让他们在自己的集群上安装部署。对于中小型客户,安装部署系统软件比较有门槛,那么可以使用清程的推理云台(MaaS)部署模型,这样客户在无形之中就已经获得了高利用率、低成本的算力,甚至用上了原本自己很难用起来的国产算力。尚明栋:此前数位嘉宾均有提及,当下有相当规模的群体认为算力仍具备较大提升间,就算力而言,一方面其价格偏高。价格较高的部分原因在于,如之前所探讨的,综合算力的使用率较低。一次性投入成本高昂,而实际使用率,据目前运营数据显示,多数情况下,从完整周期的均使用率来看,甚至低于 20%。这意味着近 80% 的算力被浪费。如何助力企业避免算力浪费,是算力运营者与消纳者当下主要的努力方向。我们九章云极DataCanvas依托Alaya NeW台,首先运用Serverless技术,完成算力的弹性调度,实现算力的占用与使用解耦。以往算力虽然使用率低,但占用率高,因算力被占用期间无法再供其他用户复用。如今借助Alaya NeW,进行算力资源的高效调度与管控,可以解决上述问题。此外,在模式创方面,以往多数前期算力使用者采用金属方式。金属方式会锁定资源,按时间计费,通常有长租协议,如 6 个月、12 个月或 18 个月。如今我们可以将算力流量化,转变为“算力包”形式。类似于运营商的流量包,依据算量收费。毕竟模型训练精调、推理等本质上皆为计算集合,所以基于计算量来收费,就可以帮助我们的用户快速提升使用率。多谢。蔡哲:季总,现在不能将您冷落了。他们三位,在我看来,应该算是您的潜在客户或潜在合作伙伴,所以先请他们发言,让您稍作等待。现在专门为您准备一个问题。请您从行云的角度,讲讲公司芯片技术是如何从可用发展至好用?季宇:我简要介绍一下。其实正如我之前所说,重点并非打造一颗与智算中心常用芯片规格参数相近但价格稍低的芯片,因为那样可能依旧是大型机的形态,极为昂贵。每台机器价值不菲,运行较大模型时会显得极为奢侈。回顾大型机历史,其价格基本在几十万美金至几百万美金以上,消费群体极为狭窄,仅有少数大型企业能够承担。当然,这些大型企业可以提升利用率,使其更具普惠性。实际上,我们更多思考的是PC产业的兴起历程。例如英特尔8086处理器,当时价格已降至几百美金,首款PC售价约1500美金。而此前IBM出售的最便宜计算机系统约在1万美金以上,这显然无法成为PC的基础,因为它一定会集中化、特定化,仅能服务于支付得起该价格的用户。并不是说此类产品对云毫无用处,互联网亦是如此。往昔互联网服务器价格并非如今这般昂贵,当时采用组装机模式,用户可定制计算节点、存储节点等各类节点,价格可降至10万块钱上下,而非如今顶配算力服务器动辄上百万,甚至如今高级机柜起步价便可能上千万。并非说上千万的机柜不如几百个甚至上千个廉价芯片,而是其可降低行业门槛,一旦门槛降低,便会引发诸多连锁反应。如果PC产品能让所有人消费得起,推理算力就可以直接置于终端。对于应用创业者而言,如同过去软件行业,可一次开发、零编辑成本部署。同理,构建互联网应用时,如果服务器价格降至极低水,互联网应用边际成本便可大幅降低,转向流量经济模式。例如,使用AI点一杯咖啡,无论token成本多低,人们总会觉得需为此付费。但若成本降至阈值以下,便可能免费,甚至日常琐事皆可借助AI完成,此时推理成本就可以从咖啡消费中获取。所以我们并非简单地将现有芯片价格降低,如同PC未完全复制IBM大型机的所有功能,英特尔也没有什么黑科技,可以将上百万美元的产品用几百美元制造出来,其中存在诸多取舍。所以我们更多期望聚焦于大模型极为关键的显存维度,将其做到极致,让人们能以消费级价位拥有高质量模型体验,无论是在端侧还是云端,皆可创造无限可能,这便是我们整体的目标。换言之,其中存在取舍,我们不会打造一颗算力超的芯片。在芯片行业,既要又要难以实现,但若在某一维度做并降低价格,即便牺牲部分算力,亦能解决计算问题。例如,谷歌曾采用大量X86构建互联网基础设施,但如果是采用购买几台大小型机或大型机的方式提供服务,整体服务能力会较差。而采用大量廉价X86组装机搭建,虽然单个机器可靠性极低,但可通过软件层面解决可靠性问题,即部分机器掉线亦不影响整体业务,进而构建业务的鲁棒性。回顾过去的PC与互联网,再看如今,对于算力而言,当下更关键的并非算力集成度高低,而是算力价格。我们知晓,高端数据中心处理器的算力性价比甚至不如消费级游戏卡。但当面临高端应用需求时,游戏卡又难以胜任。因此我们要找到衡点,打造如游戏卡般廉价但显存维度极的芯片。这需要与台上三位嘉宾协同合作完成。正如当年 谷歌在集群层面通过软件保障可靠性,使廉价但性价比高的硬件得以发挥作用,推动互联网行业发展。我们亦期望提供这样的硬件与芯片选项,与产业界各方携手合作,将此事做成。蔡哲:我们最后一个问题。现在是24年的12月,请每位嘉宾用一句话来说明自己对2025年整个算力和芯片市场的期待和展望?杨震:25年就像刚才说的,我们希望更多智算中心能够进入持续建设、有效运营的阶段。不仅只用于训练,也可以应对推理。算力层面,希望国产算力行业能够短板互补,长板更长,形成有中国特色的国产算力市场。季宇:希望未来一两年时间内,能把我们刚刚期望的在过去X86使得整个PC还有互联网兴起的起点,在未来一两年逐渐成为现实。汤雄超:清程极智创立的时候,我们对算力行业有两个判断,第一是集群化,需要越来越大规模的算力。第二是国产化。用一句话来总结我们对明年的展望,我们维持这两个判断不变,同时我们相信国产算力生态会越来越好。谢谢。尚明栋:随着我们算力生态的完善,以及国产GPU技术的快速迭代,我相信模型微调和推理阶段很快会迎来的摩尔定律,它的增长速度将不再是一倍,而是以指数级的增长。谢谢。蔡哲:最近我在读第三遍克里斯·米勒的《芯片战争》,让我非常有感触的是,硅谷的创其实是双驱动,市场驱动加技术驱动,而且所有的创都不是在计划之内。我觉得这个时代最大的创就是人工智能,也非常有幸和四位非常优秀的从业者同台,你们是中国算力和创的未来。谢谢。END.
© 版权声明
文章版权归作者所有,未经允许请勿转载。
暂无评论...