DeepSeek的六万张卡如何回本?

首席商业评论
关注

究其DeepSeek训练其模型到底使用了多少张英伟达卡,据《DeepSeek-V3技术报告》官方给出的是2048张英伟达H800芯片和1万张A100显卡。而半导体研究机构SemiAnalysis认为DeepSeek囤积了包括1万张A100、1万张H100、1万张特供版H800、3万张特供版H20在内的六万张英伟达GPU卡。

不重要,这不是本文要讨论的。

而,DeepSeek的这六万张卡如何回本?

简而言之一个词:开源。

以下是本文逻辑:

1、”DeepSeek+”行情到来,开源背后的经济账

2、都在搞钱,那么DeepSeek的钱怎么搞?

01

“DeepSeek+”行情到来,开源背后的经济账

2月10日,OpenAI创始人山姆·奥特曼在个人博客分享了他对人工智能经济学的三个观察(《Three Observations》)。他分享了人工智能经济学的三个观察。

(一)AI模型的智能水平大致等于用于训练和运行它所需资源的对数值。这些资源主要包括训练算力、数据和推理算力。实践表明,投入的资金可以持续带来可预测的收益提升;这种scaling law在多个数量级的范围内都保持准确。

(二)使用特定水平AI的成本每12个月下降约10倍,较低的价格又会带来更广泛的应用。这一点可以从2023年初的GPT-4到2024年中的GPT-4o的变化中得到印证,其中每个token的价格在这段时间内降低了约150倍。相比之下,摩尔定律以每18个月翻倍的速度改变了世界,而AI的发展速度则更为惊人。

(三)智能的线性增长能带来超指数级的社会经济价值。因此,我们看不到任何理由认为这种指数级增长的投资会在近期停止。

在山姆·奥特曼的“AI经济学”框架中,模型能力的提升与成本的边际递减是其核心命题。据山姆·奥特曼在接受采访中称,随着智能模型固定级别的智力水平的一旦实现,其训练成本每年都会下降约10倍。“这很疯狂!就像摩尔定律是温和的改变世界!”山姆·奥特曼感叹。

不得不说,除了其实践经验,OpenAI最近这关于开源的最新认可,和DeepSeek最近在商业上的“倒逼”有着直接关系。开源策略的深层意义,在于构建一个“技术-数据-商业”的飞轮。

2月17日,DeepSeek正式宣布接入微信并开展灰度测试。DeepSeek与微信的合作,本质是将模型能力嵌入高频社交场景,获取海量用户交互数据。

2月3日,DeepSeek官宣与阿里云以及百度智能云联合,通过云服务触达企业客户,通过共享技术资源、优化算法等方式,进行生态共建。

2月初,DeepSeek和三大运营商达成战略合作,实现AI技术在通信服务中的深度融入,这包括网络管理、服务优化、用户体验等多个维度的突破性进展。

1月29日,微软和DeepSeek共同宣布,DeepSeek-R1已经在微软的AI平台Azuer AI Foundry和Github可用,开发者可以使用新模型进行测试和构建基于云的应用程序和服务。

以阿里云为例,其平台AI组件产品PAI Model Gallery支持云上一键部署DeepSeek系列模型,包括DeepSeek-V3、DeepSeek-R1等。用户无需编写代码,即可通过阿里云平台实现模型训练的过程。值得一提的是, PAI Model Gallery自身是对阿里云用户开源的。而PAI Model Gallery的两种资费方式,在线服务(EAS)计费和分布式训练(DLC)计费,都是根据用户实际使用的资源来计算费用的,比如按使用时间或者次数来收费。这代表了AI开源业界普遍的一种收费模式。

DeepSeek和这些B端企业的合作模式类似于Android的开源生态:DeepSeek提供底层模型框架,合作伙伴贡献场景与数据,最终通过模型迭代实现“越用越强”的正循环。

山姆·奥特曼对AI算力趋势的深刻观察,正体现在DeepSeek 的算力创新中。DeepSeek-V3的崛起——通过开源模式和技术创新,将训练成本压缩至557.6万美元(基于H800 GPU租赁成本计算),仅为同类闭源模型的1/10甚至更低。这种成本优势的背后,是算法、框架与硬件的协同优化:FP8混合精度训练使计算效率提升20%以上,而DeepSeekMoE架构以及多头潜在注意力机制(MLA)架构,通过细粒度专家分配,让每个Token的激活参数仅占模型总规模的5.5%(37B/671B)。

因为其较低的硬件成本投入,DeepSeek-R1的发布一度使得英伟达股价大跌。但有趣的是,根据经济学杰文斯悖论,算力创新和大幅提升的背后,恰恰会带动高性能硬件(如英伟达GPU)的需求并使其可能会呈现反弹式增长。

这与杰文斯悖论的核心逻辑相吻合:即技术进步提高了资源利用效率,降低了成本,进而刺激了需求增加,最终导致资源消耗总量的上升。

多说一句杰文斯悖论:英国经济学家杰文斯发现,19世纪中叶,随着第一次工业革命工业化的进程,蒸汽机效率的提升虽然使煤的使用更加经济,但结果却是煤炭的需求飙升。这其实恰恰满足了均衡理论中的供需关系的改变:即价格降低,势必会带来需求量的大幅提升。产品便宜了,买家自然就会变多。

2月12日,英伟达在博客中介绍了利用 DeepSeek-R1 和推理时扩展技术来自动生成优化 GPU 内核的最新研究成果,效果异常的好。英伟达表示,其对于 DeepSeek-R1 的最新进展及其应用潜力感到非常兴奋。

智能的线性增长能带来超指数级的社会经济价值。大模型技术的发展迭代,必将反哺整个人工智能和芯片行业的发展迭代速率。

这里我们来具体算一笔账吧。

账本落在经济上,大模型开源,各方怎么个互惠互利?

一句话:B端(企业)得到DeepSeek的大模型赋能,C端(用户)得到B端企业更好的服务,而DeepSeek则得到B端企业的算力和其服务的C端的用户和数据。

DeepSeek的六万张显卡投入,这笔重要且巨大的开支,通过开源,DeepSeek能够将这些成本分摊到整个生态系统中。一方面,开源吸引了大量的开发者和企业参与到模型的训练和优化中,降低了单个企业的投入成本,也就是降低了单个企业用于构建人工智能大模型的边际费用;另一方面,开源也促进了DeepSeek技术的快速迭代和升级,提高了模型的性能和准确性,从而降低了后期的维护成本。此外,通过与其他企业的合作,DeepSeek还能够获得额外的收入来源,如技术授权、定制化服务等。

开源代码不仅降低了DeepSeek自身的开发成本,还为合作方带来了技术上的节省成本杠杆。通过共享代码和算法,DeepSeek能够帮助合作方快速构建和优化自己的AI模型,避免了重复投入和研发周期。此外,DeepSeek还提供了丰富的训练数据和工具,使得合作方能够更加高效地训练和优化模型。这些节省下来的成本,可以成为合作方进一步投入AI领域的动力。而这一切,也都来自DeepSeek的模型创新。

自此,不难理解关于DeepSeek“国运级应用”的评价了。

02

都在搞钱,那么DeepSeek的钱怎么搞?

众所周知,DeepSeek目前是免费的,并成功倒逼一众人工智能大模型公司也随之宣布其产品未来免费供给C端。

但正如所有企业都需要营利,天下并没有免费的午餐。DeepSeek的搞钱之道,依然是开源,开源,开源。

其具体逻辑,通过B端开源技术降维与生态锁定:即用开源代码降低B端客户接入门槛,再用增值服务构建自身的壁垒。B端免费算力与数据反哺:即用对B端的开源获取B端免费的算力;B端的广泛覆盖又反哺C端的全方位覆盖,从而带来更多token样本(token是数据在被模型处理之前或过程中被分割成的最小单元),大量开源得到的token样本加成会使DeepSeep自身模型算力成本大幅降低,算力效率大幅飞跃使自身模型更优化,从而又大幅降低自身模型开发维护升级成本。

这种“算力-数据-模型”的三角循环,使得DeepSeek的单位训练成本降低,DeepSeek也正像其无需人工进行标注的机器学习模型一样,可以达到自学习、自维护、自营收益的高效阶段。

具体来说,DeepSeek通过向B端用户开源其技术和数据资源,吸引他们参与到模型的训练和优化中。这些B端用户可以是企业、研究机构或开发者团队等,他们拥有丰富的数据和场景资源,能够为模型提供更加多样化的训练样本和测试环境。通过向这些用户提供技术支持,DeepSeek能够降低大模型的算力成本和提高用户的参与度。与此同时,这些B端用户在使用模型的过程中也会产生大量的数据和反馈,这些数据可以用于进一步优化模型和提高其性能,促进DeepSeek自身模型的快速迭代。这种向B端开源从而获取算力和数据的模式,不仅降低了DeepSeek的运营成本,还提高了其模型的准确性和泛化能力。

同时,随着B端用户的不断增加和深入参与,DeepSeek能覆盖到更多的C端用户和应用场景。这些C端用户可以是个人消费者、中小企业或行业用户等,他们对于智能化需求日益增加。通过向这些用户提供智能化的服务和解决方案,DeepSeek能够吸引他们参与到模型的训练和优化中,从而进一步增加Token训练样本的数量和多样性。这些Token训练样本可以用于进一步提高模型的准确性和泛化能力,从而形成C端对B端的反哺。

获得大量开源Token训练样本能够降低模型算力成本。DeepSeek利用这些样本进行更加高效的模型训练和优化。这种“自迭代”使模型能够在较少的算力硬件资源下达到更好的性能表现。这对于DeepSeek来说自然是一笔巨大的成本节省。

当然,尽管DeepSeek在技术和应用方面已经取得了显著的进展,但目前仍然存在一些不完善之处。例如:对于某些复杂场景的处理能力有限等问题。

而通过开源策略的实施和生态系统的构建,DeepSeek正在逐步解决这些问题。一方面通过吸引更多的开发者和企业参与到模型的训练和优化中来增加token样本的数量和多样性;另一方面通过与合作伙伴的开源合作来拓展应用场景和提高模型的泛化能力,充分提升模型处理复杂场景的能力,正如前文所提到。

DeepSeek的商业模式,似乎正创新出一条AI公司的“自进化”之路。

DeepSeek的商业模式,本质是一场“用模型养模型”的试验:通过开源吸引生态伙伴,降低获客与数据获取成本;再通过B端增值服务与C端数据价值变现,支撑算力扩容;最后,模型性能提升吸引更多合作伙伴,获得更多增值收益,形成无需人工干预的“数据-算力-收益”闭环。

这一路径的可行性已初现端倪:DeepSeek-V3的后训练阶段仅消耗5K GPU小时,不到预训练的0.2%,说明模型的自学习能力显著增强。若其能持续压缩迭代成本,六万张显卡的回本周期可能从行业平均的3-5年缩短至18个月。

然而,争议依然存在。但无论如何,DeepSeek已证明:在AI的竞技场上,低成本与高性能并非零和游戏,而开源生态可能是打破算力垄断、提升算力效率的最优解。

参考文献:

DeepSeek-V3技术报告解读 来源:机器学习算法那些事

行业资讯 | Sam Altman凌晨发文,AI Agent将重塑世界经济 来源:深圳市人工智能行业协会

DeepSeek R1不编程就能生成GPU内核,比熟练工程师好,惊到了英伟达 来源:机器之心

全网首发 | PAI Model Gallery一键部署阶跃星辰Step-Video-T2V、Step-Audio-Chat模型 来源:阿里云大数据AI平台

       原文标题 : DeepSeek的六万张卡如何回本?

声明: 本文由入驻OFweek维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。
侵权投诉

下载OFweek,一手掌握高科技全行业资讯

还不是OFweek会员,马上注册
打开app,查看更多精彩资讯 >
  • 长按识别二维码
  • 进入OFweek阅读全文
长按图片进行保存