蹭上DeepSeek流量的云厂商,警惕亏损陷阱

光锥智能
关注

图片

文|白 鸽

编|王一粟

春节假期刚过,云计算在资本市场就“火了”。

不过,这次率先“火”的并不是以阿里云、腾讯云等为主的云巨头,而是中小云厂商。

比如青云科技股票2月5日至2月12日,连续6个交易日“20cm”涨停,股价从34.07元/股涨至101.72元/股,并在2月14日一度冲高至115.31元/股。

长期资本市场表现低迷的优刻得,却在今年春节后持续飙升,其中“20cm”的涨停就收获4个,短短8个交易日,股价累计涨幅高达177%,市值达到173亿元。

港股金山云从2024年9月的低点,至2025年2月14日上涨至最高10.88元/股,飙涨超八倍。

此前,这些中小云厂商长期徘徊在“生死存亡”的边缘,业绩低迷,持续亏损。

而此次受益于DeepSeek R1发布及开源,降低了大模型的训练和部署成本,带动了AI应用需求激增,让这些中小云厂商们在资本市场“暴增”的同时,也真正走上了AI大模型的牌桌。

无疑,大模型是云厂商们的“流量入口”,云厂商们也一直是大模型推广应用的直接受益者。相比于中小云厂商,算力资源更充沛的云巨头们在大模型赛道的布局更为激进且全面。

毕竟,当客户使用DeepSeek等模型时会消耗算力、数据,进而也会带动其他基础云产品(计算、存储、网络、数据库、软件)的销售。

因此,自年初DeepSeek爆火后,除中小云厂商外,阿里云、华为云、腾讯云、火山引擎、百度智能云、电信运营商天翼云、移动云、联通云等都迅速上架DeepSeek。

可以看到,DeepSeek的出现,给中小云计算厂商提供了一个能够借助新技术翻身的机会,尽管对当前云计算市场格局并不会造成多大的影响。

但从流量上来说,中小云厂商也确实抢夺了部分云巨头的流量,尤其是在中小企业和个人用户群体中,毕竟相比较来说,中小云厂商性价比更高。

不过,从整体云计算市场而言,有民生证券分析师也表示,随着越来越多公有云厂商拥抱DeepSeek,其背后算力资源回归同一起跑线,从而转为考量算力池的深度和用户覆盖的广度。

毕竟,大模型虽是云厂商的“流量入口”,但最终决定胜负的则是大模型产业落地的深度与厚度,而从目前情况来看,云巨头们的优势无疑更加明显。

与此同时,DeepSeek的“低成本”,也带来了新一轮的价格战,云厂商们也需警惕,越来越便宜的价格,最终有可能让MaaS服务沦陷到SaaS陷阱。

DeepSeek,让中小云厂商上了牌桌

“此前云主要是围绕CPU建设,GPU只是附件,现如今GPU则成为了一个独立的业务板块。”去年年底,云铀科技CTO王为对光锥智能说道,“这块业务主要帮客户做算力的管理和运维。”

经过多年发展,以CPU为主的云计算已发展非常成熟,不管是大型云厂商,还是中小云厂商,更多还是基于CPU提供云端算力服务。但在AI大模型时代,CPU已不能够满足大模型预训练的算力需求,GPU逐渐成为主流应用芯片,以GPU起家的英伟达,也因此“飞黄腾达”。

相比较来说,云巨头们在GPU赛道上布局更早,投入更多。

2016年前后,深度学习技术快速发展,对GPU需求急剧增加,此时以阿里云、腾讯云等为首的云巨头们就已开始加大在GPU领域投入,扩充GPU服务器规模,并推出系列GPU云服务产品。

而中小云厂商受限于资金实力等因素,开始大规模布局GPU赛道的时间,则聚焦在2022年底后,同时也伴随着国产GPU芯片的崛起。

这也就导致,中小云厂商们普遍存在高端算力显卡紧缺的问题,以及缺少大规模、高性能算力集群,无法为大型客户提供相关的算力服务,尤其是以做大模型预训练为主的客户群体。

另外,中小云厂商过去以CPU为主导的业务基础和技术积累,很难直接转型为智算服务,毕竟,中小云厂商本身并未积累足够的GPU技术实力,加之现阶段GPU整体技术栈发展还不成熟,所以中小云厂商也很难像云大厂一样提供全方位、一站式AI云服务解决方案。

这也就使其在AI训练阶段能做的事情非常有限。也正因此,在此前大模型赛道中,中小云厂商并未真正上AI大模型服务的“牌桌”,仅仅触摸到了大模型赛道边缘业务。

但DeepSeek的爆火,却给中小云厂商提供了上“牌桌”的机会。

2025年初,DeepSeek提出“四两拨千斤”的技术路径。

其称“仅用2048张英伟达H800芯片和550万美元训练成本”训练出和OpenAI旗舰模型性能接近的模型,且训练成本仅为其他巨头的数十分之一,推理算力成本仅为GPT-o1的1/30。

同时,相比于其他大模型而言,DeepSeek的智能蒸馏技术等也让AI推理突破了硬件限制,部署成本从高端GPU扩展到消费级GPU,并适配了众多国产GPU芯片。

这也就使得中小云厂商无需大量投入高端算力硬件,仅依靠国产GPU芯片,就可以为客户提供AI服务。

另外,在算力集群资源上,原本百卡级别的算力群大部分都不能够满足大模型推理应用的需求,且很多企业也囤积了几十至百卡级别的算力资源,却导致出现了很多闲置的算力集群。

但借助DeepSeek 技术的优化和加速,原本难以处理的任务,现在百卡级别算力就能完成,提升了小规模卡集群的经济价值,让中小云厂商可更高效利用有限算力资源,为客户提供服务。

更为重要的一点是,DeepSeek各大模型API定价相当便宜。

比如DeepSeek-R1的API定价为:每百万输入tokens是1元(缓存命中),每百万输出tokens是16元,反观OpenAI的o3-mini,输入(缓存命中)、输出每百万tokens的定价,分别为0.55美元(4元人民币)、4.4美元(31元人民币)。

近期结束了优惠期的DeepSeek-V3,虽然从原来的每百万输入tokens0.1元(缓存命中)、每百万输出tokens2元,分别上调到了0.5元、8元,但价格仍低于其他主流模型。

便宜好用的DeepSeek,也推动了越来越多的中小企业和个人,来使用云服务部署运行AI模型。

而小型AI应用迎来井喷式发展,也就让更多的中小企业以及个体用户选择更具灵活性和性价比的中小云厂商提供的服务模式,也为中小云厂商带来大量业务机会和广阔市场空间。

无疑,过去因无力承担高昂算力成本,在大模型服务领域难以涉足的中小云厂商,现如今能够借助DeepSeek技术,以较低成本开展相关业务,拓展至具有更高利润的AI算力服务市场,并拥有了弯道超车的机会。

全方位抢滩DeepSeek,云巨头们的生态之战

对训练卡量不多的中小云厂商而言,DeepSeek的训练逻辑则是为其提供了迈入AI大模型服务领域的机会,并借此实现营收新增长。

而于云巨头们来说,除“蹭流量”之外,更重要的,还在于云生态之战,及争夺未来AI基础设施的话语权。

也因此,各云巨头除MaaS层部署了DeepSeek大模型服务外,从底层基础设施,到上层应用,基本全线适配了DeepSeek大模型产品。

有业内人士也表示,尽管现如今云厂商们纷纷接入DeepSeek,但:“真正的较量不在接入名单,而在模型与云架构的深度适配。”

毕竟,在各家的较量下,只有确保DeepSeek大模型在自家的云平台上能得到比其他平台上更加优异的性能与效率,以及可以更好地兼容软硬件平台,避免过多资源消耗,才能够吸引更多企业和开发者进入到自己云生态体系中。

在此过程中,各云巨头也是基于自身核心优势,走了不同的发展路径,实现差异化打法。

百度智能云主打性价比及全方位服务。千帆大模型平台在近期上架了DeepSeek-R1和DeepSeek-V3模型,并同步推出了行业领先的超低价格方案;百度智能云底层基于昆仑芯P800打造的万卡集群,能够为部署DeepSeek的企业提供更高的算力支持;千帆ModelBuilder则提供基于模型开发工具链进行一键部署、蒸馏等能力,能让企业客户更好地将DeepSeek用起来。

图片

而百度智能云旗下客悦、曦灵、一见、甄知四款大模型应用产品,也正式上线接入DeepSeek模型的新版本。同时,百度智能云正加速推进金融、交通、政务、汽车、医疗、工业等行业应用产品与DeepSeek模型的适配验证工作。

华为云则以昇腾云服务绑定国产算力链。近期,国产算力服务商硅基流动大模型云服务平台SiliconCloud上线了基于华为云昇腾云的满血版DeepSeek-R1&V3,率先走通在国产芯片部署DeepSeek模型的路径,降低模型推理时间与成本,获得持平全球高端GPU部署模型的效果。

阿里云则通过“零代码”流程覆盖全生命周期。此前,阿里云宣布支持一键部署DeepSeek-V3、DeepSeek-R1,用户无需编写繁琐的代码,便可实现从训练到推理的全流程。另外,阿里云还称,为了更高性价比地实现DeepSeek系列模型与现有业务的高效融合,用户还可部署蒸馏过后的

DeepSeek-R1-Distill-Qwen-7B。

腾讯云则以“3分钟部署”强化开发者友好性。此前,腾讯云官方宣布,DeepSeek-R1大模型一键部署至腾讯云HAI上,开发者仅需3分钟就能接入调用。近日,腾讯云TI平台可支持DeepSeek「全系模型」的企业级精调与推理,帮助开发者更好解决「数据预处理难」、「模型训练门槛高」、「在线部署及运维复杂」等问题。

各家云巨头们,虽然接入开源大模型产品的路径不尽相同,但最终核心目标,都是希望通过降低企业AI部署门槛,争夺开发者生态与客户增量。

毕竟,云平台的本质是卖算力、卖服务,定位是“开放生态”,每家大型云服务商都希望能够尽可能多吸引客户进入生态中,这样才能够带动更多算力消耗,以及云产品的服务销售等。

当然,如果云平台只能使用自家模型,客户的选择面就会被大幅限制,不仅可能会流失不想用其自有大模型的客户,更重要的是这些客户可能会选择其他更开放的云平台。

因此,只有提供多元化的选择才能满足不同客户的需求,才能够使云厂商从更多层面获得收益。而DeepSeek低成本高性能的技术突破,则成为这场竞赛中极具性价比的“弹药”。

对于各大云厂商来说,当前不管是开源大模型还是闭源大模型,所收取的API调用费都不高,其所能够给带来的营收在整体的占比也并不高。

而回归云计算的本质,只有通过大模型抢占流量入口,不断扩大生态和用户群,才能够真正地带动整个云生态营收的增长。

因此,面向未来,云厂商们只有将DeepSeek的“低成本”优势转化为云服务的“高回报”,才有可能最终在这场AI竞争中占据高地。

月亏损超4亿元,警惕MaaS变SaaS

从技术和应用层面,云厂商们已深度接入DeepSeek,但想要快速抓住这波“流量”,最实际且有用的办法,就是“卷”价格,甚至抢着给用户送免费额度。

如,腾讯云TI平台推出开发者大礼包,包括DeepSeek全系模型一键部署,部分模型限免体验。百度智能云针对此次模型上线提供了超低推理价格,低至DeepSeek官方刊例价3-5折,还可享受限时免费服务。火山引擎提供了两周限时5折优惠,助力企业畅享“满血版”DeepSeek-R1。

但是,竞争激烈的价格战下,云厂商们也面临着亏损的问题。

近日,潞晨科技创始人尤洋在微博和朋友圈表示,大厂相互卷低价和免费,满血版DeepSeek R1每百万token(输出)只收16元。如果每日输出1000亿token,基于DeepSeek的服务每月就要亏损至少4亿元,用AMD芯片亏损也超过2亿元。

图片

秘塔搜索CEO闵可锐也表示,许多云厂商服务价格和DeepSeek一样或更低,但他们都在亏钱。

从去年至今,云厂商们发起的价格战一波接一波,字节、百度、腾讯、阿里等都曾跟进降价,近期甚至引发了两位老百度人的隔空“骂战”。

日前,百度智能云事业群总裁沈抖在全员会上提到:“国内大模型去年‘恶意’的价格战,导致行业整体的创收相较于国外差了多个数量级”,并单独提到了字节跳动旗下的豆包,认为受Deepseek影响最直观的就是豆包,理由是其训练成本和投流成本都很高。

随即,谭待在朋友圈进行了正面回击,表示:“豆包1.5Pro模型的预训练成本、推理成本均低于DeepSeek V3,更是远低于国内其他模型,在当前的价格下有非常不错的毛利。”

前期通过大规模投入,抢夺流量市场和用户,是大厂们的一贯做法。但在此过程中,却也要警惕,原本被看好的MaaS模式或许有可能沦为SaaS,又卷,又内耗,还不挣钱。

甚至尤洋都直言,短期内,中国的MaaS模式可能是最差的商业模式。不过,现阶段AI发展仍处于中早期阶段,而当大模型真正深入产业落地之时,或许将改变现状。

       原文标题 : 蹭上DeepSeek流量的云厂商,警惕亏损陷阱

声明: 本文由入驻OFweek维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。
侵权投诉

下载OFweek,一手掌握高科技全行业资讯

还不是OFweek会员,马上注册
打开app,查看更多精彩资讯 >
  • 长按识别二维码
  • 进入OFweek阅读全文
长按图片进行保存