接入DeepSeek,百度掀起AI大模型低价风暴

源Sight
关注

文源 | 源Sight

作者 | 王言

整整一个春节过后,DeepSeek的热度依然居高不下。为了加速行业大模型的落地,DeepSeek系列模型已在国内外多家主流云平台完成上架部署。

与此同时,DeepSeek也打破了大模型赛道参与者一直以来所坚守的信仰,一场以“低成本、高效率”为核心的AI普惠革命,拉开帷幕。

一个最直观的例子是,相比传统AI训练模式,DeepSeek能在相同任务下,大幅降低对计算资源的需求,从而降低硬件投入成本。这也是DeepSeek在能够提供媲美ChatGPT-o1服务的同时,但又无需用户付费的底气所在。

也是因此,2025年也成为AI大模型不断降本增效的一年。在DeepSeek的刺激下,不少国内外厂商宣布上线DeepSeek大模型,并开始拿出真金白银,以高性价比服务吸引更多用户。

作为国内AI先行者,百度无疑是最为特别的一个。

01

摩尔定律在大模型的效力

如果要在国内找到一家深度参与大模型商业化的平台,百度一定位列其中。

2月3日,百度智能云宣布,其千帆平台正式上架DeepSeek-R1和DeepSeek-V3模型,并推出了超低价格方案——价格仅为DeepSeek-V3官方刊例价的三折,DeepSeek-R1官方刊例价的五折。此外,用户还可以享受限时免费服务。

百度智能云称,此次接入的模型已全面融合千帆推理链路,集成百度独家内容安全算子,实现模型安全增强与企业级高可用保障,同时支持完善的BLS日志分析和BCM告警,助力用户安全、稳定地构建智能应用。

图片

据公开数据,DeepSeek-R1的整体成本约为OpenAI o1模型的1/30。这一数据如同地震一般,颠覆了全球相关从业者的信仰。

被称为“日本AI研究第一人”的东京大学教授松尾丰,就在近日表示,DeepSeek技术很出色,性能与运营“ChatGPT”的美国OpenAI接近,每次发布新的AI模型,都会发表论文,详细说明模型采用了什么样的技术,以及花费心思实施的改进之处。

松尾丰还称赞了DeepSeek以开源方式进行公开的做法。其1月发布的最新模型“R1”,进行了提升推理能力的强化学习,最终展现出了与OpenAI的o1同等的推理性能。

同时,如何提供更加便捷、高效、经济的产品体验,成为AI大模型相关企业在竞争中拔得头筹的关键。

此次百度智能云千帆平台推出超低价格方案的背后,是其尝试降低用户AI模型试错成本的尝试,也符合当前AI技术普惠化的趋势。

根据市场调研和咨询公司Gartner发布的数据,到2027年,企业使用的AI模型中,将有一半以上具有特定行业或业务功能,而在2023年这一比例仅为不到1%。

不过,从模型训练到应用开发的过程中,耗费大量资金、堆砌算力所造成的投入成本高、短期收益不明显等问题,是企业实现将大模型进行业务场景化落地的主要挑战。降低技术成本,才是推动创新实现落地的主要动力。

2月11日,“世界政府峰会”在阿联酋迪拜开幕。百度创始人李彦宏在会上表示,在AI领域或IT行业,大多数创新都与降低成本有关。如果成本降低一定比例,生产力也随之提高同样比例。

“在今天,创新速度比以往都快得多。根据摩尔定律,每18个月,性能就会翻倍而价格减半。如今,大模型推理成本每年降低90%以上。”李彦宏说。

02

已经有人掀起低价风暴

对比目前已经宣布上架DeepSeek的云厂商以及官方刊例调用价格,百度智能云服务的价格具有较大优势。同时,百度智能云也在进一步丰富平台AI模型生态,为用户提供更多元和强大的模型选择。

总体来看,相比其他厂商,百度针对当前的市场需求提出了极具“效价比”的方案,帮助用户在产品效果、性能以及成本之间实现平衡。

据了解,百度智能云千帆ModelBuilder,是百度智能云推出的与大模型相关的平台,为用户提供模型调用、模型效果调优等服务。百度智能云千帆ModelBuilder提供高效价比的文心模型及开源模型服务,以及模型效果调优的一站式工具链,包含数据加工、模型精调、模型评估、模型量化。

在DeepSeek以中国式效率打破全球AI大模型以资本和算力主导的高成本壁垒后,行业的整体生态发生了显著的变化。

对比目前已经宣布上架DeepSeek的厂商,以及直接通过官方进行调用的价格,百度智能云调用R1对比官方刊例价为五折,调用V3对比官方刊例价为三折,全网最低。

可以说,在DeepSeek催化下,相比盲目地“烧钱”和堆积算力,以合理成本获得可靠的产品体验更为重要。

图片

而在当前的路线下,百度智能云的产品和服务,已经在市场上取得了显著的效果。

根据官方数据,目前百度智能云千帆大模型平台,已帮助客户精调了3.3万个模型、开发了77万个企业应用。这些应用,涵盖了金融、政务、汽车、互联网泛科技等多个领域,为企业客户提供了便捷、高效、经济的大模型使用和开发体验。

而从行业角度来看,百度的高效价比方案,不仅平衡了自身投入成本,也为整个行业提供了新的思路和方向。

03

AI大模型的技术“拉力赛”

纵观全球AI竞争,除了保持更低成本的算力之外,拥有更高性能,也是相关企业保证自身领先地位的重要手段。

有效降低模型调用价格,提供更具效价比的方案,离不开百度智能云强大且高效的算力支持,以及在推理引擎性能优化技术、推理服务工程架构创新和推理服务全链路安全保障上的深度融合。

这其中,百度的自研万卡集群,是其实现算力降本的关键。

如果将目光拉至全球大模型的竞争全景下,可以看到,单集群万卡已成为相关企业必不可少的配置。

毕竟,万卡集群可持续降低千亿参数模型的训练周期,实现AI原生应用的快速迭代。同时,万卡集群也支持多任务并发能力,通过动态资源切分,单集群可同时训练多个轻量化模型,通过通信优化与容错机制,提升集群综合利用率,实现训练成本指数级下降。

2月初,百度智能云宣布点亮昆仑芯三代万卡集群,这也是国内首个正式点亮的自研万卡集群。昆仑芯三代万卡集群,不仅为百度带来坚实的算力支持,也有望推动模型的降本趋势。

在推理引擎性能方面,基于自身在大模型推理性能优化方向的技术积累,百度智能云针对DeepSeek模型MLA结构的计算,进行了极致的性能优化。并通过计算、通信、内存不同资源类型算子的有效重叠,以及高效的Prefill/Decode分离式推理架构,在核心延迟指标TTFT/TPOT满足SLA的条件下,实现模型吞吐的大幅度提升,显著降低模型推理成本。

在推理服务层面,百度智能云也进行了深入的优化与创新,针对推理架构做了严格的推/拉模式的性能对比。同时,百度智能云经验证拉模式在请求处理的成功率、响应延时以及吞吐量等关键指标上,均展现出更为卓越的性能。

为了进一步提升系统的稳定性和用户体验,百度智能云巧妙地设计了一种请求失败的续推机制,这显著增强了系统的容错能力和服务SLA达标率。

同时,针对多轮对话和system设定等场景中存在重复Prompt前缀的情况,百度智能云实现了主流的KV-Cache复用技术,并辅以全局Cache感知的流量调度策略。这一举措,有效避免了Token KV的重复计算,从而大幅降低推理延迟,提高了推理吞吐。

此外,针对用户所关注的安全保障方面,平台基于百度自身长期的大模型安全技术积累,集成独家内容安全算子,实现模型安全增强与企业级高可用保障。

同时,在大模型全生命周期数据安全与模型保护机制的基础下,千帆平台上的模型均拥有使用安全的安全保障;基于在安全方面的专项优化,确保DeepSeek-R1&DeepSeek-V3模型的企业用户在使用过程也具有更高的安全性。

在如今的大模型竞争态势下,AI大模型的技术“拉力赛”愈演愈烈,拥有高性能且更低成本的算力,始终是企业实现产品普及,保证领先地位的重要手段。

在致力于提供效价比服务的策略下,百度智能云的商业化落地正在不断加速,百度大模型的商业模式也有望进一步完善。

部分图片来源于网络,如有侵权请告知删除

       原文标题 : 接入DeepSeek,百度掀起AI大模型低价风暴

声明: 本文由入驻OFweek维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。
侵权投诉

下载OFweek,一手掌握高科技全行业资讯

还不是OFweek会员,马上注册
打开app,查看更多精彩资讯 >
  • 长按识别二维码
  • 进入OFweek阅读全文
长按图片进行保存