今天,火山引擎的方舟Coding Plan悄悄上新了。

GLM-5.1、Kimi 2.6、MiniMax M2.7——三款国产大模型齐刷刷上线,套餐价格还是熟悉的配方:Lite版40元/月,Pro版200元/月。看着挺香,对吧?

结果用户不买账。

V2EX上一个帖子,28条回复里至少一半在吐槽。有人直言”隐藏倍率,狗都不买”,有人说”试完你就不会再想买了”。客服群更是”高强度被骂了一天”。

问题出在哪?

慢,是真的慢

一位Pro套餐用户反馈:用GLM-5.1,首字响应要30秒以上。

什么概念?

你敲完代码,端着咖啡等它回复,咖啡都凉了,屏幕还在转圈圈。

更离谱的是这位:“我用K2.5模型,3分钟输入了103个token,像掉线一样。Trae免费的K2.5排完队都比它这个plan快。”

3分钟,103个token。

这速度,手工打字都比它快。

开发者面对卡顿屏幕

隐藏倍率,玩得花

火山方舟的Coding Plan主打”按次计费”,听起来很简单——买个月卡,随便用。

但用户实测后发现,事情没那么简单。

“火山隐藏倍率,动不动就*6、*10,比某些丧良心的中转站都黑。”

有人用脚本测试:如果每次请求7-10万上下文,每5小时只有100次左右的额度。全月算下来,也就500次左右。

只有每次5000左右上下文,才能达到宣传里的”每小时1000次”。

一位用户总结得精辟:

“看似Coding Plan,实则Token Plan。Token用少了按次数限制,Token用多了按Token限制——横竖都是赚。”

这宣传,确实有点 misleading。

隐藏倍率信息图

模型”变蠢”了?

还有用户发现,同样的模型,火山版的就是比官方版”蠢”。

“我以前一直以为GLM蠢,后来发现只是火山版的比较蠢。”

另一位用户说得更直接:“它家的模型又慢又蠢,量化过度了。”

量化,是为了降低计算成本、提高推理速度的常用手段。但过度量化,模型的能力就会打折扣。

大厂补贴战打得火热,价格一降再降。但羊毛出在羊身上——成本压下来了,体验也跟着缩水。

客服群被骂了一天

一位知情用户透露:“客服群高强度被骂了一天。”

想想也是。用户满怀期待买了套餐,结果速度慢得像蜗牛,计费规则还藏着掖着。换谁不生气?

有人直接选择了退款。

也有人表示:“值是挺值的,但是楼上说完之后我有点不想买了。”

口碑崩塌,就是这么快。

大厂补贴战的代价

火山引擎不是第一家,也不会是最后一家。

从大模型竞赛开始,价格战就没停过。今天你家首月8块9,明天我家免费送额度。用户看得眼花缭乱,厂商打得头破血流。

但补贴战的终局是什么?

资源有限,用的人越多,体验越差。为了控制成本,要么限流排队,要么过度量化。最后受伤的,还是用户。

一位用户说得在理:

“资源有限,用的人越多体验可能越差。想白嫖的抓紧,手慢无。”

但问题是,Coding Plan不是白嫖,是付费服务。付了钱还得”手快”,这合理吗?

用户要的是什么?

说实话,开发者对大模型的要求并不高。

够快——别让我等半天。 够准——生成的代码能用。 够透明——计费规则清清楚楚,别玩套路。

就这三点。

火山引擎今天的上新,看似给了用户更多选择。但如果底层体验没跟上,模型再多也是白搭。

一位买了两个月Pro套餐的用户,昨天刚过期没续费。结果今天火山就更新模型了。

他说:“不过就算它更新模型我也不想续了。”

你看,用户一旦失望,再拉回来就难了。

写在最后

大模型赛道正在从”拼参数”转向”拼体验”。

benchmark再好看,用户用着卡顿,也是零分。价格再便宜,服务跟不上,也是负分。

火山引擎今天这波上新,本可以是个好消息。但看来,他们还需要在”体验”这两个字上,多下点功夫。

毕竟,用户的耐心是有限的。

骂娘的声音,服务器那头,真的能听到吗?