豆包大模型真的全网最低价吗?

图片

豆包大模型的“超低价”,忽略了行业的真问题。

©️懂财帝出品 · 作者|嘉逸

5月16日,火山引擎发布了豆包大模型,号称为全网最低价,比行业价格便宜99.3%。按照火山引擎的说法,用户花费1元,可以处理相当于3本《三国演义》文字量的内容。

但在引起行业内外一片惊呼的同时,很快就有开发者提出质疑。

图片

开发者通过比对官网数据计算后发现,火山引擎仅公布了输入价格,未公布输出价格,并对低价资源限定了多重使用条件。用户在实际使用过程中,要承担至少高出27倍的成本。

值得注意的是,在这场大模型亮相的发布会上,其他大模型厂商必谈的模型效果、企业客户数量等关键信息,火山引擎均没有提及。

01 | “超低价”并非实际使用价格

目前,底层通用大模型多采用开放API接口的形式,按实际消耗或调用的tokens量计费。

简单来说,在使用大模型时,用户输入的问题、大模型输出的答案,都有一定的文字量,这些文字量便是由token组成。最常见的计费单位“每1000 tokens”,大约可以表示700多个汉字。

根据问答内容的特征、模型算力消耗等因素,厂商一般会分别为输入、输出内容设定不同的价格。

以火山引擎发布的大模型Doubao-pro-32k为例,在企业市场的定价为0.0008元/千tokens,该定价仅为输入价格,没有明确展示输出价格为0.002元/千tokens。

在通过加权平均输入、输出价格后(按输入:输出=5:1来计算),实际的收费价格达0.001元/千tokens。最为关键的是,只有在较低的业务并发这个强限制条件下——即每秒1次问答请求,才能实现该价格。

也就是说,豆包大模型的“超低价”仅能用来体验和测试,无法真正用到生产环境中。

如果用户在真实的业务场景中高频调用豆包大模型,就需要采用预付费模式,这个“超低价”就更不存在了。

在大模型付费模式方面,主要分为预付费、后付费两种模式。预付费模式要求用户在使用服务前预先支付一定的费用,通常按照预估的使用量或者服务套餐来计费。后付费模式则允许用户“先上车后补票”,按使用量收费。

不过,预付费模式往往会在每分钟处理内容量(TPM,Tokens per Minute)这个关键指标上限制服务能力。以Doubao-pro-32k为例,预付费的价格为一个TPM单元(10K Tokens per Minute)每个月12000元。

假设用户能够消耗光所有的内容额度,需要支付费用0.028元/千tokens(预付费模式,一个月可以产生10K tokens/分钟 * 1440 分钟/天 * 30天 = 432,000个千tokens,12000元÷432,000=0.028元/千tokens),高出后付费费用(0.001元/千tokens)27倍。

此外,由于企业调用大模型有高峰低谷,很难百分百消耗掉完整的TPM单元。如果按照70%的平均利用率来计算,豆包大模型每千tokens的价格将达0.04元,比后付费模式贵出39倍。

预付费模式下,如果横向对比其他主流大模型,豆包大模型并不具备价格优势,反而是百度的文心大模型最便宜。

以火山引擎重点发布的Doubao-pro-128k为例,预付费的价格为一个TPM单元每个月24,000元。假设用户能够消耗光所有的内容额度,需要支付费用0.056元/千tokens(预付费模式,一个月可以产生10K tokens/分钟 * 1440 分钟/天 * 30天 = 432,000个千tokens,24,000元÷432,000=0.056元/千tokens)。火山引擎虽然公布的价格为0.005元/千tokens,但实际使用价格会贵10倍多。

相比之下,百度的ERNIE-3.5-128K模型,一个TPM单元每个月的费用为17,000元,需支付费用为0.039元/千tokens,比Doubao-pro-128k便宜29%。

诚然,大模型定价低会让更多人用得起,值得欢呼。

但也需要理性看待大模型的价格战,拨开表面的低价“迷雾”,掌握实际使用的价格。

02 | 好用才是硬道理

相比其他大模型厂商,字节跳动入局较晚,希望以低价杀入赛道是个不错的选择。

从企业选择大模型的标准上看,模型效果、推理成本、落地难度是主要衡量指标,三个缺一不可,仅靠价格便宜从来不是制胜武器。比如,遥遥领先的GPT-4价格为0.42元/千tokens,属于行业最贵的水平,即使谷歌、Meta免费开放,还是未能动摇GPT-4的地位。

当前,在C端普遍免费的情况下,各厂商都在发力B端客户。火山引擎此次没有公布旗下大模型产品的具体企业客户数量,此前其他厂商公布的数字是:文心一言已服务10万家企业客户,通义千问服务了9万家企业客户。

5月15日晚间,百度透露文心大模型的日均处理Tokens文本已达2490亿,比火山引擎公布的豆包大模型日均处理Tokens文本1200亿多出1倍。百度也称,目前文心大模型在中国有最广泛的产业落地规模。

在这种竞争格局下,豆包以低价为卖点,有意聚焦B端,或将给其他厂商带来更大的压力。目前来看,国内其他大模型厂商对价格战都相对冷静克制。

昨天百度公布了2024Q1财报,百度智能云的收入达到47亿元,同比增长12%,来自生成式人工智能和基础模型的收入占智能云业务收入的6.9%。由此可见,国内大模型的产业落地尚在早期,不过已经开始持续贡献收入了。

归根到底,比起打价格战,好用才是真正的护城河。

说明:个人测算与观点,仅供参考。数据源于公开披露,不构成任何投资建议,投资有风险,入市需谨慎。

—END—

免责声明:上述内容仅代表发帖人个人观点,不构成本平台的任何投资建议。

举报

评论

  • 推荐
  • 最新
empty
暂无评论