AIGC动态欢迎阅读
原标题:甲对话火山引擎总裁谭待:大模型后发也可以制胜|甲子光年
关键字:模型,字节跳动,,客户,火山
文章来源:甲子光年
内容字数:33103字
内容摘要:
只有最大的使用量才能打磨出最好的模型,也只有最好的模型才有最大的使用量。作者|甲 王艺
编辑|刘杨楠
“价格战”,是大模型市场继参数量、长文本、营销战、融资额等热门话题后最新的关键词。
是一场火山引擎的发布会。
2024年5月15日,火山引擎一口气发布9款大模型,同时升级了火山方舟、应用服务、机器学习平台、云底座,并公布模型调用价格——豆包pro 32k模型推理输入定价是0.0008元/千tokens,比行业的价格降低了99.3%;豆包pro 128k模型正式定价是0.005元/千tokens,较行业价格降低了95.8%。
超低定价让字节跳动一跃成为大模型“顶流”。
过去一年,字节跳动在“百模大战”中十分低调,最早发布的C端产品“豆包APP”也没有任何宣传就悄然上线。
在各家都争抢着卷参数、卷文本长度、卷营销,试图在大模型时代抢占“先发优势”的今天,字节跳动作为“后发者”,率先在B端掀起了“价格战”。
时间窗口“错位”的背后,是字节跳动追求“最强模型,最低成本,最易落地”的大模型战略主张。这个主张的出发点,便是“以客户为中心”。
“B端和C端不一样,企业决策更理性,
原文链接:甲对话火山引擎总裁谭待:大模型后发也可以制胜|甲子光年
联系作者
文章来源:甲子光年
作者微信:jazzyear
作者简介:甲子光年是一家科技智库,包含智库、社群、企业服务版块,立足中国科技创新前沿阵地,动态跟踪头部科技企业发展和传统产业技术升级案例,推动人工智能、大数据、物联网、云计算、新能源、新材料、信息安全、大健康等科技创新在产业中的应用与落地。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...