社科网首页|客户端|官方微博|报刊投稿|邮箱 中国社会科学网
中国社会科学院工业经济研究所

DeepSeek技术突围重构全球人工智能产业竞争格局的六个维度:范式与启示

2025年08月06日来源:《南京社会科学》2025年07期    作者:陈晓东 朱肖霏

摘要人工智能是引领新一轮科技革命和产业变革的核心驱动力,对我国加快发展新质生产力具有重大战略意义。在全球生成式人工智能激烈竞争的背景下,中国AI独角兽企业深度求索(Deepseek)通过技术创新和战略重构,探索出一条区别于西方技术霸权主义的突围路径,以全栈开源、效能革命和应用场景渗透突破了技术封锁,正在重塑全球人工智能产业竞争范式。通过分析DeepSeek在开源战略、底层技术、算力博弈、成本控制、终端战场和未来战局等六个维度的战略选择与技术创新,并将其与国际知名人工智能进行对比,进一步探究其比较优势,得出研究结论:DeepSeek以技术开放民主化、效能加快革命化、应用必须场景化三大范式打破全球人工智能垄断格局,重构算力经济,突破了西方以规模扩张为主导的人工智能发展范式,为中国独角兽企业摆脱西方技术封锁提供了重要的参考与启示。

关键词:DeepSeek;开源生态;效能革命;打破“规模诅咒”

基金资助:中国社会科学院工业经济研究所阐释党的二十届三中全会精神重大项目“提升产业链供应链韧性和安全水平研究”(GJSZY2024022)的阶段性成果。

 

当前,世界各国都在追求人工智能创新,但只有美国、中国和其他少数国家拥有独立研发和训练生成式人工智能大模型的能力,美国在AI全球竞争格局中仍占据领先地位,中国等新兴市场国家快速崛起,成为全球AI产业发展的重要力量,全球人工智能竞赛进入主导权争夺的关键阶段。以Open AI、Anthropic和Google等为代表的美国人工智能企业依赖强大的算力支撑和数据优势,不断推出性能卓越的闭源模型。以美国为代表的西方国家凭借其在算法和数据上的领先优势形成技术霸权,以技术壁垒和资源垄断挤压人工智能初创企业生存空间。全球生成式AI争夺战2024年进入白热化阶段,正当OpenAI以GPT-5巩固技术霸权、Anthropic凭借Claude3争夺伦理高地时,2025年初,一家来自中国的AI公司深度求索(DeepSeek)以“开源革命+技术突围”的独特路径改写了国际竞争规则。深度求索公司凭借其在大语言模型架构、成本和效能上的突破成功突围,以开源生态迅速打响国际知名度,实现了从粗放的算力堆砌向内在效率提升的根本性变革,引领了国产AI转型升级,冲击了当前AI产业国际竞争格局,挑战了全球排他性与集中控制的人工智能技术生态。截至2025年初,DeepSeek估值已突破50亿美元,其开源模型在Hugging Face榜单上连续三月超越LLaMA。DeepSeek以“全栈开源”策略打破科技巨头企业的技术壁垒,实现技术开放民主化;以架构创新突破人工智能技术“规模碾压”的现有发展路径;以“效能革命+成本控制”打破算力资源垄断和资本碾压;以软硬件协同和垂直领域应用进行场景深挖,实现应用场景化,建立落地优势;以多元发展战略应对人工智能国际竞争风险,逐步从技术突破过渡到生态建设和全球资源整合,建立国际市场竞争优势。DeepSeek从六个维度突破了西方发达国家在人工智能领域筑造的技术隔离,在生成式AI的国际竞争中占领了一席之地,展现出强大的发展潜力,为我国AI独角兽企业提供了技术突围新范式,加快促进全球人工智能产业竞争格局的重构。

一、以开源战略与开放生态激活技术创新

AI大模型的开发和部署具有开源和闭源两条战略路径,开源生态和技术壁垒的争论是人工智能技术发展和商业化竞争的重要话题。开源模型会公开模型权重和代码,任何人可以使用与修改开源模型并审核验证其安全性。闭源模型主要由大型科技公司开发和维护,大型科技公司拥有充足资金和专业团队,能够提供稳定的高质量服务,同时在数据隐私控制方面更加严格。闭源策略能保护底层核心技术,传统大型科技公司通常会选择模型闭源建立技术壁垒以维持竞争优势,这使众多发展中国家的小型科技公司只能处于跟随、模仿的落后境地。为了打破科技防线,越来越多的人工智能初创企业选择开放技术栈,吸引开发者广泛参与构建生态系统,以开源生态迅速建立市场优势。开源是全球数字生产发展的核心要素之一,极大地激活了人工智能技术创新活力,正在成为新的工作模式、生产手段与扩张工具。

(一)DeepSeek的破局点

大规模、高质量、多样化的用户群体是人工智能模型商业化的坚实基础,也是推动模型技术持续迭代创新的强劲动力。作为初创科技企业,为了抢占市场优势,DeepSeek形成了一套涵盖模型架构、训练方法和应用生态的完整开源体系,是全球首个实现“全栈开源”人工智能公司。它为开发者提供丰富的技术资源,吸引大量开发者参与社区建设,并通过开发者激励计划进一步构建其开源生态。同时,DeepSeek重点开源垂直领域模型,采取差异化战略,推动模型商业化,实现人工智能模型的应用落地。开源策略使DeepSeek在短时间内迅速成为全球知名人工智能企业,并为其打造了充满活力的开发者生态,建立了自身独特的国际竞争优势,这种社会效率是闭源策略难以获得的,DeepSeek在一定程度上推动了技术平权,弥合了技术鸿沟,为人工智能的发展提供了“中国方案”,推动全球AI技术向更加民主、开放和普惠的方向发展。

1.“全栈开源”策略

“全栈开源”是DeepSeek在人工智能领域脱颖而出的关键。DeepSeek完整开放了从7B到128B参数各种规模的全系列模型框架,开发者可以直接调用Hugging Face接口加载模型并进行二次开发。而且DeepSeek全面开源了其自研混合专家模型(MoE)架构及训练工具,鼓励开发者利用该架构训练自己的模型,为开发者提供了高效灵活的训练工具,并借此不断推进模型创新和个性化。DeepSeek的开源还包括数据清洗工具、标注工具和增强工具等数据处理工具,以及相关文档和教程,为开发者提供了完整的推理和部署工具。DeepSeek的“全栈开源”遵循MIT协议,MIT协议允许开发者自由使用、复制和修改代码,并无需额外授权便可商用。DeepSeek的开源生态大幅降低了技术获取门槛,使全球开发者能共享先进算法和优秀经验,促进了AI技术在不同场景的普及,激发了技术创新的多元性。其中,DeepSeek-R1发布仅仅一个月左右,其衍生模型在Hugging Face平台的下载量便突破了一千万次。作为首个全栈开源且性能可媲美GPT-4o的大语言模型,DeepSeek以开放式创新加速技术迭代,促进技术扩散,为发展中国家和中小企业提供了以较低的成本获取底层技术的可能,通过免费透明的技术共享从而削弱了传统AI巨头构建的技术封闭生态。

2.开发者激励计划

为鼓励基于其开源模型的应用开发,DeepSeek设立了3000万美元的开发者激励基金,通过应用开发奖励、社区贡献奖励和竞赛奖金等形式奖励优质应用。凭借开发者激励计划,DeepSeek吸引了全球超过12万的开发者参与其开源社区建设,构建了一个高度活跃的开源社区。此外,DeepSeek还将启动万亿生态基金,重点投资区块链技术创新、应用场景拓展、开发者社区建设等领域,通过资金支持、技术扶持、市场拓展等方式,多维度加速技术创新,构建繁荣的开发者社区。其中,开发者分成计划是生态基金的重要组成部分,将基于DeepSeek平台的多元化收益与开发者共享,帮助优质应用对接投资和市场推广,以“免费模型+增值服务”的商业模式实现开发者共创,以持续稳定的回报激励开发者积极探索AI大模型的商业化应用。开发者激励机制以实际利益吸引开发者参与生态系统建设,提高了开发者的参与热情,建立了活跃的开发者社区,打开了技术“黑箱”,催生了创新应用,并形成了自发的技术交流和学习氛围,为AI技术的快速迭代和应用落地提供了强大的动力。

3.差异化策略

“全栈开源”使得DeepSeek直接售卖模型访问的商业价值受限,因此,DeepSeek采取差异化的商业化策略,重点开发垂直领域模型,而这种专用模型的开发需要丰富的应用场景。当前,科技巨头企业的AI大模型发展重点在于通用模型,DeepSeek充分利用我国应用场景丰富的独特优势,针对特定领域陆续发布并开源了一系列同样遵循MIT开源协议的专用模型,而DeepSeek-Math数学专用模型下载量已经突破百万次。其中,在使用Common Crawl的120B数学相关标记以及自然语言和代码数据对DeepSeek-Corder-Base-v1.5 7B进行预训练后,DeepSeek-Math 7B在不依赖外部工具包和投票技术的情况下,在竞赛级MATH基准测试中取得了51.7%的分数,接近Gemini-Ultra和GPT-4的性能水平,显著超过了Mistral-7B和Llemma-34B。科大讯飞已接入该模型,推出AI数学辅导应用“星火助学”。专用模型往往具有强大的应用价值,能够解决特定领域需求,在细分市场抢占份额。对于开发者而言,直接使用预训练的垂直领域模型能够大幅降低开发成本。此外,DeepSeek为企业提供定制服务,精准匹配多行业核心需求,基于其开源模型进行定制开发,收取服务费用,提供“AI模型+数据工具+业务流程包”的一体化解决方案并将模型赋能具体应用,打造如智能客服系统、数据分析平台等应用层产品,将其作为独立产品推向市场并收取订阅费用。DeepSeek在商业化道路上选择通过让渡模型的部分短期利益获取强大的用户支持和行业影响力,在此基础上提供附加服务实现价值变现,采取差异化商业策略,在构建开源生态的同时使其商业利益可持续。

(二)海外对手对比

开源AI模型正在凭借其开放性、可修改性和成本效益优势逐渐超越闭源模型成为主流,一些国际知名人工智能公司也在采取开源或半开源战略,如Meta和Mistral AI。Meta公司以Linux操作系统取代闭源的Unix,推出了开源模型LLaMA系列,但相较于DeepSeek的“全栈开源”,其模型开源存在显著的技术限制和商业化限制。Mistral AI也采取“渐进式开源”的策略,逐步开源模型架构,但当前仍始终保留一些关键技术和数据。OpenAI则采取闭源战略构建技术壁垒,实现规模化商业变现;虽然保障了短期商业利益,但在开源技术普惠化的趋势下,其高开发成本使得其无法满足中小企业的需求,难以保证长期影响力。

1.Meta

Meta公司推出的LLaMA系列模型是目前市场上最知名的开源模型之一,其发布的LLaMA3.1 405B是第一个前沿级别的开源人工智能模型。Meta虽然将LLaMA系列的基础模型进行开源,但其训练代码与数据配方仍保密。因此,开发者虽然可以自由使用LLaMA模型,但基于该模型的模型定制和优化仍受到技术和信息的限制。LLaMA的开源策略建立在《社区许可协议》和《可接受使用政策》的基础上。根据《社区许可协议》,若基于该模型开发的研发模型商业化后有超过7亿的月活跃用户,则开发者必须向Meta额外取得授权,这对开源模型的商业化应用提出了一定的限制。Meta通过LLaMA系列基础模型的开源获得了生态影响力,该模型被广泛应用于Facebook、Instagram等社交平台,Meta AI助手覆盖超30亿用户。但相较于DeepSeek开源模型的“全栈”开源,其对训练代码和数据配方的限制仍在制约着开发者的创新能力。数据显示,GitHub代码贡献者增速中,DeepSeek达到247%/季度,远超LLaMA的58%,反映出开源策略带来的生态优势。

2.OpenAI

Open AI采取彻底的闭源策略,它未公开AI模型和核心技术,仅通过API接口供用户调用。在构建市场和技术壁垒的同时,利用API接口持续收集用户数据反馈改进模型。这一策略虽然保证了Open AI的技术垄断和收入来源的稳定,但也使其缺乏了生态构建能力。相较于DeepSeek,OpenAI无法形成活跃庞大的开发者社区以及由此而形成的社区协同效应来促进技术迭代。而且,Open AI的API调用成本相对较高,GPT-4 Turbo的输出定价高达30美元每百万token,通常比开源方案高出3—5倍,Open AI较高的调用成本使得许多开发者和中小型企业面临较大的成本压力。此外,微软作为OpenAI最大的投资者,其Windows操作系统同样也选择闭源策略,使得非英伟达硬件厂商由于无法修改基础模型和相关代码而无法实现模型适配。调用成本和适配性对OpenAI的应用推广造成了一定程度的阻碍,DeepSeek的开源策略则降低了中小企业和个人开发者的使用门槛,在开源生态的趋势下,OpenAI宣布也将要发布一款开源模型。

3.Mistral AI

Mistral AI推出的Mistral Small和Mistral Large系列也是性能强大的知名开源模型。为平衡开源和商业化之间的关系,Mistral AI采取了“渐进式开源”策略,完全开源其基础模型及参数权重,遵循Apache 2.0协议鼓励商业化应用,允许企业私有化部署,但Mistral AI始终保留其核心模型,这意味着开发者无法自由地进行深度开发和个性定制,无法完全释放开发者的创新潜力,在一定程度上制约了Mistral AI的生态建设和技术普及,而这恰恰是DeepSeek“全栈开源”的优势所在。

二、以架构创新突破底层技术竞争依赖

人工智能底层技术的竞争优势建立通常依赖于两种主要路径:一是以架构创新突破传统局限,提高模型效率及性能;二是利用海量数据与计算资源进行规模碾压,以“大数据+超大规模”的方式占据市场份额。自2012年深度神经网络技术在图像识别中取得突破之后,全球AI企业纷纷投入到大规模AI模型的研究,AI产业进入“规模竞争”时代,AI模型的参数量与数据量成为技术领先的标志。随着以GPT-3、BERT为代表的“亿级参数”模型的出现,AI产业的研究重点逐渐从算法创新向模型拓展转变,资本投入和算力资源成为技术突破的关键。规模碾压在短期内能快速实现技术领先并通过资源垄断巩固地位,但随着模型规模的不断扩大,规模训练所需的算力成本、数据需求以及计算资源呈指数级增长,导致了巨大的成本压力与能源消耗。OpenAI、Google等国际AI巨头产业在技术进步的过程中遇到了“规模诅咒”,虽然AI模型在规模和性能上取得了突破,但随之而来的高昂成本和资源消耗问题成为技术发展的障碍。而底层技术通过架构创新能够降低对算力的依赖,适应资源受限的场景,提高模型效率,降低计算成本,实现大模型的长期可持续发展。

(一)DeepSeek技术护城河

DeepSeek开创的动态稀疏训练和混合专家模型实现了更智能的算力分配,挑战了传统人工智能将AI性能与大规模计算能力捆绑的既定发展范式。DeepSeek以T-VQA框架降低对单一模态数据的依赖,提高模型性能,以持续学习引擎解决灾难性遗忘,实现模型的迭代学习。在大模型普遍追求参数规模碾压的情况下,DeepSeek以底层技术架构创新构建技术优势,在降低算力依赖与训练成本的同时,通过模态互补、知识迁移等机制,增强模型泛化能力,推动AI技术向更高效、灵活、智能的方向演进,为开发者提供更具竞争力的技术解决方案,推动AI技术从“算力军备竞赛”转向“算法架构进化”的新阶段。

1.动态稀疏训练系统

动态稀疏训练是DeepSeek底层架构的核心。DeepSeek通过任务调度算法,基于任务特性及硬件设备的当前状态,动态调整任务分配,并支持CPU、GPU、TPU等多种硬件设备,开发者可以通过统一的API接口将任务分配到不同的设备。传统训练框架通常将任务固定分配在特定的硬件设备上,往往要求巨大的计算资源和存储能力,而动态稀疏训练面对不同类型的输入可以灵活调整计算资源的分配,高效利用GPU和TPU等硬件资源,保证性能的同时显著降低计算资源消耗,使DeepSeek在相对局限的计算环境中,能有效训练出具有竞争力的超大规模模型,显著降低训练成本。其中,DeepSeek在128B模型中实现了高达92%的稀疏度,相较于传统的Dense模型,其训练成本降低了67%。稀疏化技术在减少计算量的同时,还能更加直观地展示模型关注的重点区域,通过聚焦关键部分增强对短文本的理解,通过扩展注意力范围,捕捉长文本的更多信息,提高推理质量,增强模型的信任度和透明度。

2.多模态混合架构

DeepSeek的架构设计具有开放性和扩展性,其多模态混合架构通过融合文本、图像、视频等多种模态数据,提供更加丰富的信息输入,以模态对齐技术确保不同模态数据能够在同一语义空间中处理,利用不同模态数据的互补性,显著提升模型在复杂任务中的性能。DeepSeek首创的“文本为核,视觉增强”的T-VQA框架以文本处理为核心,确保DeepSeek在语言理解任务中的高效能,并引入视觉模块增强模型在图像和视频任务中的性能,通过高效的模态融合机制将文本和视觉信息融合,经过多任务学习生成包含丰富语义的多模态表示。多模态混合架构不仅在传统的自然处理任务中表现突出,而且通过模态互补增强了模型在不同任务和场景中的泛化能力,降低了对单一模态数据的依赖,显著提高了多模态模型的性能,使得DeepSeek在多模态任务中具有明显技术领先优势,DeepSeek在MMBench测试集上的准确率提升了28%。

3.持续学习引擎

深度学习模型通常在固定数据集上进行训练,一旦部署模型参数就不再更新。而现实世界中的数据分布和任务需求往往是动态变化的,传统深度学习模型在学习新任务时,往往会遗忘之前学到的知识,灾难性遗忘是大规模预训练模型亟待解决的问题。而DeepSeek独特的持续学习引擎将弹性权重巩固和经验回放相结合,引入记忆回放和正则化技术,利用双重记忆网络有效抑制灾难性遗忘。支持模型在线更新和迭代学习,确保模型在更新后仍能保留对旧任务的知识,且能通过自适应优化器和模型参数动态调整提高学习效率。此外,DeepSeek通过多任务学习共享参数,实现任务之间的知识迁移,提升模型泛化能力。该引擎使得客户的个性定制周期从3周压缩为72小时,显著提高了模型部署效率,并在多个实际应用中取得了显著成果。其中,在金融风险评估任务中,DeepSeek能适应市场数据,实时更新模型,实现历史风控规则和新风险模式共存,提升风险评估的准确性。

(二)国际巨头技术路线

DeepSeek的架构创新不同,作为最具竞争力的人工智能企业巨头,OpenAI利用其技术先发优势,依靠规模效应和硬件支持打造高性能的AI大模型,在性能提高的同时也带来了高昂的训练成本。Anthropic以伦理可控性作为竞争优势,但其“安全优先”的理念限制了模型创造力与应用场景的广度。同样具有多模态原生架构优势的Gemini 2.0,在复杂任务中保持了高性能,但其终端部署却需要依赖TPU的支持,提高了其使用门槛。高昂的计算成本和严格的硬件条件必然会使OpenAI和Google丧失其模型的广泛性和普适性,影响模型的长期收益。

1.OpenAI

OpenAI的技术路线主要依赖规模碾压和海量数据工程。它以大规模预训练模型推动技术发展,通过收集和处理海量数据,保证模型在多种任务上的泛化能力。其最新模型GPT-5预计将达到1.8T参数量,训练数据超过万亿token,计算资源消耗巨大,训练成本高达数亿美元,且需要依赖微软Azure超算集群进行训练。规模碾压在短期内能带来显著的技术提升,但会面临计算成本高昂和资源消耗的问题,高成本和计算资源的依赖性会限制中小企业和研究机构对其模型的使用。与OpenAI不同,DeepSeek则选择通过架构创新和动态稀疏技术优化计算资源利用效率,在不牺牲性能的前提下,有效降低训练成本和计算需求,使DeepSeek能以相对较低的成本,训练出与超大规模模型相媲美的强大AI模型,降低了开发者和企业的使用门槛。

2.Anthropic

有用和无害在生成式AI上往往存在显著的紧张关系,Anthropic的研究表明,随着模型变大,模型能力增加的同时其毒性也在加大。因此,Anthropic专注于人工智能安全和负责任开发,其目标是构建一套可靠、可解释、可控的以人类为中心的人工智能系统。在Anthropic之前,生成式AI在训练AI与人类价值观保持一致时,普遍采用的训练方法为基于人类反馈的强化学习。作为人工智能伦理学的先驱,Anthropic的技术路线注重伦理可控性,它提出了基于AI反馈的强化学习,引入了宪法AI,并在宪法AI框架中引入伦理规则,通过预定义的伦理规则限制模型,确保AI系统在开发和应用过程中能够符合人类价值观,有效避免生成有害内容。伦理可控性在日益重视人工智能伦理性的当下是Anthropic独有的竞争优势,但同时也要意识到强调伦理控制的做法更适合应用于医疗和法律等伦理要求严格的场景,这限制了Claude模型的应用场景。Claude模型“以安全为优先”的开发理念,也在一定程度上限制了模型的灵活性和创造力。

3.Google

Google的最新模型Gemini 2.0注重多模态原生架构,具有很强的多模态处理能力,支持原生工具调用和实时音视频流输入,提供文本、音频和图像的集成响应,具备多语言音频输出能力,能同时处理文本、图像、音频、视频等多种模态数据,保证了其在复杂任务中的高性能。但Gemini 2.0的模型训练和部署依赖于专用硬件TPU,这限制了其在普通硬件上的广泛应用。由于对硬件和计算资源的要求比较高,Gemini 2.0的使用门槛较高,主要面向大型企业和研究机构。相比之下,DeepSeek的T-VQA框架在多模态任务中取得显著成果的同时,能在通用硬件上高效运行。更加灵活和易于部署的技术方案,使DeepSeek在不同的硬件环境中都能够表现出色,具有更高的市场适应性。

三、以效能革命打破算力资源垄断

算力是支撑人工智能模型训练和推理的核心资源,算力需求会随着模型规模的扩大呈指数级增长。传统AI企业往往依赖云计算平台和专用硬件满足其庞大的计算需求,随着AI大模型规模的不断扩张,算力需求不断增加,AI模型对算力的需求是无穷的,算力资源不足成为行业发展的潜在制约。全球算力资源分布不均衡,算力被少数国家和企业垄断,人工智能的发展使得算力资源竞争异常激烈。美国作为全球科技主导力量拥有巨大的算力资源,并通过技术垄断和市场控制,对算力资源的供应和分配拥有绝对的优势地位,垄断了全球算力资源市场。面对日益膨胀的算力需求,人工智能巨头企业选择与算力垄断企业深度绑定,实现算力资源垄断,但同时也带来单一供应商锁定的潜在风险。作为算力资源垄断的受害者,中国和其他国家的人工智能初创企业必须寻求效能革命,高效利用算力资源成了企业竞争的关键。

(一)DeepSeek算力策略

面对AI算力军备竞赛的白热化,在国际高端芯片进出口受限的背景下,DeepSeek摒弃单纯的算力堆砌,构建起三位一体的颠覆性算力策略,自研计算框架智能调度算法,动态分配算力资源,并创新性采用FP8+INT4混合量化技术,提升计算效率的同时守住性能底线,最大化利用现有硬件资源提供的算力。在行业普遍追求算力扩张时,DeepSeek布局绿色算力未来,促进算力资源的绿色发展。DeepSeek从硬件调度、算法优化到能源革命的算力全链条创新在增强自身竞争优势的同时,展现了其对可持续发展和环保的关注,为整个行业树立了榜样。

1.自研“太极”计算框架

“太极”计算框架通过构建深度浅但宽度广的光神经网络,创建了干涉—衍射分布式广度光计算架构。简洁、灵活和高效的“太极”编程框架通过Python接口降低学习曲线,让使用者无需深入理解底层硬件便可以进行高性能计算并支持调整多种计算模式,通过底层代码优化确保了计算效率。基于干涉—衍射分布式广度光计算架构研制的全球首款大规模通用智能光计算芯片的系统级能效为每秒每焦耳160万亿次运算,超越了主流商用AI芯片3个数量级,干涉和衍生的统一使太极光芯片同时具备了可重构通用计算能力和高通量并行计算能力,显著提高处理速度和能效。DeepSeek通过自研“太极”计算框架,提供分布式训练技术支持,实现数据并行和模型并行,运用智能任务调度算法,根据硬件资源实时负载情况及任务分类,动态调整任务优先级和资源分配,最大化硬件资源利用效率。“太极”计算框架在4090显卡集群上实现了82%的硬件利用率,比Megatron提升了三倍,在国产芯片上实现了90%异构算力利用率,性能媲美A100,成功绕过了英伟达长期依赖的技术壁垒CUDA。

2.混合精度训练

DeepSeek在训练过程中采用了FP8+INT4混合量化,结合不同精度的计算方式,灵活使用不同精度的数据格式,保持性能的同时降低计算和存储需求,提升计算效率和资源利用率。FP8格式所需存储空间和计算开销较小,是低精度数据格式,DeepSeek的大部分核心计算内核采用FP8混合精度训练框架实现,降低了计算复杂度,提高了模型训练速度,使模型在相同算力预算下能够处理更大规模的训练数据。相较于主流的FP16格式,FP8的引入使DeepSeek在推理阶段的能耗降低了30%以上。同时,为保证模型的整体性能,DeepSeek的关键操作保留了高精度,对于对低精度计算敏感的算子和一些低成本算子保留了FP16甚至FP32的精度。量化是混合精度优化的另一关键环节,INT4量化技术将模型参数从FP8进一步压缩至INT4,通过数值优化降低了存储和传输成本,从而减少存储需求。同时,为减少量化过程中可能引入的误差,DeepSeek采用精细量化策略,进行分块量化和块级量化,减少量化误差,避免模型发散。为解决混合精度训练中低精度计算误差不断累积影响,DeepSeek还设立了误差累积解决方案。这种混合精度训练技术使得单卡显卡就能训练30B参数级别的模型,模型在较低硬件设置上能够完成同样规模的任务,大大降低了训练大规模AI模型的门槛。相比之下,传统训练方式往往需要更高的计算资源和硬件支持。

3.绿色算力布局

随着人工智能技术对AI服务器需求的激增,算力基础设施能耗和碳排放问题日益突出,液冷技术相较于传统风冷技术,具有显著的散热效率和能效优势。传统数据中心的PUE值高达1.5,DeepSeek在贵州建立的液冷数据中心将PUE降低至1.08。贵州建立数据中心具有得天独厚的优势,能够充分利用当地丰富的水电资源,以可再生能源的稳定供应进一步降低能耗,我国一体化算力网络国家(贵州)主枢纽中心使的液冷技术使服务器有效算力提高约30%,降低约40%能耗。此外,DeepSeek还与中科曙光合作建设杭州训练中心的液冷系统,形成了技术优势互补,其单机柜功率密度达35kW,PUE小于1.15,为DeepSeek的AI训练提供了高效稳定的环境。同时,DeepSeek也成了数据中心液冷系统变革的催化剂及系统升级的载体,最新发布的源动云酷DeepSeek全浸没液冷一体机采用全球领先的单相浸没式冷却技术,可将PUE值降低至1.05以下,节能效率提高40%以上,为行业提供了更高效的绿色算力解决方案。DeepSeek通过布局绿色算力,提升了能源利用效率,降低了其运营成本,不仅为其品牌加分,还吸引更多环保意识强烈的客户和合作伙伴。

(二)海外算力现状

不同于DeepSeek的效能革命,部分人工智能企业仍然依赖于传统的硬件投资和超大规模算力模型,深陷“算力依赖—成本攀升”的恶性循环。其中,OpenAI作为科技巨头企业依赖强大的算力资源提升模型性能,算力成本居高不下,Anthropic与AWS深度绑定,面临供应商锁定风险,Inflection因为算力失控最终被收购。在海外同行企业以算力资源堆砌技术“护城河”时,DeepSeek选择以算法创新代替算力堆砌,直接冲击了OpenAI依赖的“高资本投入+闭源垄断”的商业模式,开辟出了更高效可持续的发展路径。数据表明,训练同等性能模型,DeepSeek单位token成本0.12美元,显著低于OpenAI的0.27美元和Anthropic的0.35美元,展现出了其成本优势。

1.OpenAI

ChatGPT发展的背后是强大算力资源的支撑,数据显示,ChatGPT的总算力消耗约为3640PF-days。OpenAI目前完全依赖于微软Azure的算力支持,这使它在享受强大算力资源的同时,也面临着巨大的成本压力。根据公开数据,OpenAI每年在Azure上的算力支出超过20亿美元。Azure的高算力成本,导致openAI的训练和推理成本居高不下,且在算力资源上缺乏自主权。AI大模型对算力无穷无尽的需求使得有强大算力支撑的OpenAI也日渐陷入算力不足的困境。近期OpenAI推出的GPT-4o生图功能使其算力需求急剧上升,OpenAI面临算力不足。与OpenAI的高算力依赖模式不同,DeepSeek凭借智能调度任务算法和混合精度训练技术,成功降低了计算资源的消耗,使其在算力博弈中占据优势。

2.Anthropic

Anthropic与AWS深度绑定,其算力需求主要依赖于AWS的云计算平台。目前,Anthropic的Claude系列模型被集成在亚马逊AWS Bedrock模型平台上。AWS为Anthropic提供强大计算资源的同时,也使Anthropic面临供应商锁定的风险。对于AI企业,过于依赖单一供应商不仅会导致算力价格上升,还会影响企业对算力资源的控制力。DeepSeek则通过自研计算框架显著降低了对外部资源的依赖,技术的自主性和灵活性使DeepSeek在算力成本控制和供应链管理方面占据显著优势。

3.Inflection

硅谷AI独角兽企业Inflection作为新兴初创企业,算力成本控制也是其重要发展方向,Inflection曾发布Inflection-2.5大模型,宣称只用40%的计算资源训练,表现就超过了GPT-4的九成。但最终由于算力资源成本失控,为解决资金和算力资源问题,Inflection被微软收购。在算力需求激增的现实下,算力资源的获取和成本控制对公司生存和发展至关重要。DeepSeek通过算力优化和绿色布局,避免了类似问题的发生,它不仅通过降低成本增强了企业竞争力,还凭借灵活的算力配置和绿色算力发展,确保了公司在算力博弈中的长期可持续性。

四、以“精益模式”成本控制体系颠覆传统资本碾压

成本控制是决定人工智能企业竞争力的重要因素。随着AI大模型规模扩张和云算力的不断膨胀,AI大模型的训练和推理成本成为行业发展的关键瓶颈。面对高昂的算力成本和数据存储成本,一些大型科技公司通过资本扩张和资源垄断维持其市场地位,对于人工智能初创企业,并不具备资本碾压的能力。在此背景下,以DeepSeek为代表的AI独角兽企业则构建了一套以“精益模式”为核心的成本控制体系,显著降低了从数据获取到模型部署的全生命周期成本,实现高效资源利用,颠覆了传统资本碾压模式,将成本控制转化为主动进攻的战略武器。而OpenAI、Cohere等国际厂商则陷入了“资本碾压”困境,虽依赖巨额资金投入维持竞争优势,却可能因成本失控陷入可持续性危机。

(一)DeepSeek成本创新

创新的本质是产出成果成本的下降。传统AI成本控制聚焦单点优化,如提高芯片效能,DeepSeek的成本控制策略则在数据、模型和部署三大环节进行技术创新,提高全流程效率。当行业陷入“参数军备竞赛”的囚徒困境时,DeepSeek构建数据众包网络降低数据获取成本,并通过“模型蒸馏+边缘计算”双策略压缩模型训练和应用成本,构建了数据生产、模型训练、边缘部署的全链路协同体系,通过蒸馏、量化和众包技术,证明了技术创新可以打破“大算力—大数据—大模型”的线性增长魔咒。数据表明,DeepSeek-V3版本仅用2000块英伟达H800芯片就完成了训练,价值600万美元,成本仅为美国同类项目的二十分之一,某跨境电商采用DeepSeek端云协同方案,客服AI成本从每月12万美元降至2.8万美元。

1.数据众包网络

AI大模型训练过程中的数据质量直接决定了模型效果,高质量数据是不断提升模型性能的基石。传统的数据采集和标注往往需要巨大的人工成本投入和时间投入,为控制数据成本,DeepSeek构建了一个覆盖200万标注员的分布式众包网络,对标注任务分级并进行动态质量评估,通过平台token结算激励标注员,为平台积累了宝贵的人力资源,形成了良性、可持续发展的自循环生态系统。此外,该数据众包网络还以区块链技术实现任务分配、质检和结算全流程的自动化,并通过实时质量监控和多种审核机制,确保数据采集的准确性和多样性。数据众包网络既是低成本数据源,也是模型落地的渠道节点,它形成独特的成本消化网络。通过数据众包网络,DeepSeek能够收集各专业领域及其细分领域的高质量数据,实现数据采集的规模化,相比同行企业昂贵的专业数据采购渠道,数据众包网络将DeepSeek每条数据的标注成本降低到同业的五分之一,这一成本优势使其在数据集建设上占据先机。此外,众包网络的灵活性和规模性使DeepSeek能够根据需求快速扩展数据集,而无需过多依赖传统人工标注公司,有效地提高了数据的时效性和准确性。得益于众包网络的高效运作,DeepSeek在数据成本上拥有明显竞争优势,保证数据质量的同时,能将更多资源投入到后续模型研发和优化上,数据众包网络也为后续模型蒸馏和边缘计算等技术的创新奠定了坚实的数据基础。

2.模型蒸馏工厂

模型训练和推理成本会随着AI模型参数规模的扩大而爆炸式增长,参数庞大的深度学习模型在性能上具有优势的同时往往面临着模型臃肿、推理延迟和知识浪费等问题。面对“规模诅咒”,DeepSeek通过模型蒸馏工厂对大型模型进行有效压缩,以“软标签”代替传统机器学习模型的“硬标签”进行训练,并进行多模态知识整合,将不同模态的知识蒸馏在统一模型中,在保证模型精度的同时减少参数量,降低推理成本。模型蒸馏采用分级训练策略,可以将大型预训练模型知识转移到更小型模型,使用在特定领域有优势的教师模型蒸馏出专用的小模型,可将模型压缩至原来规模的1/10且同样保持较高精度,比如,先训练超大规模的V3基础模型,继而通过知识蒸馏得到一个精简的R1模型供下游应用。利用这一技术,DeepSeek针对不同应用场景提供量身定制的模型压缩,实现从模型架构设计、训练策略到部署推理的全链路协同优化,使得推理成本降低90%。这一技术创新降低了DeepSeek在云端和边缘计算上的算力需求,使其能在同样的计算资源下,处理更多请求,提高服务响应速度和效率,在需要频繁进行推理和响应的场景下,模型蒸馏技术极大地提升了DeepSeek的竞争力。

3.边缘计算方案

随着数字技术和数字经济的迅速发展,越来越多的AI应用需要部署到终端设备。传统AI模型需要庞大的内存和算力支持,终端设备往往会受到硬件限制。针对这一问题,DeepSeek利用知识蒸馏技术在推理阶段提高效率,结合网关设备低能耗设计,有效降低边缘计算网关能耗,提高设备稳定性。DeepSeek提出“敏感度感知通道剪枝算法”,突破传统剪枝的均匀压缩局限,通过模型蒸馏和参数剪枝对庞大的模型进行压缩、精简和优化,在不牺牲精度的前提下降低模型所需内存。根据实际测试,14B参数模型经过剪枝、量化和蒸馏三阶段压缩后,可在RTX4090上实现5倍推理加速,同时保持95%以上的原始精度。此外,DeepSeek通过混合精度量化引擎,可自动识别Transformer中20%需要保留FP16精度的注意力头,实现内存压缩,DeepSeek的端侧模型只需要4GB内存就能运行,可在骁龙7系芯片上实现实时响应,这使其能够适配包括中端智能手机在内的各种设备,并能实现全场景设备的自动适配。在实际应用中,DeepSeek采用云端协同的方式,利用差分更新技术,云端完成复杂计算任务,终端设备则负责实时响应和数据预处理,充分利用强大的云端计算能力的同时,满足终端设备低延迟、低功耗的运行要求。这一方案打破了终端侧AI必须依赖高端软件的限制,不仅极大地降低了终端设备对云计算资源的依赖,还能够降低数据传输的延迟和成本,提高了系统的响应速度和可靠性。通过边缘计算方案,DeepSeek能够在全球范围内提供更加灵活和高效的AI服务,尤其是在低延迟和高实时性的应用场景中。

(二)国际厂商困境

DeepSeek以精益创新控制成本不同,部分国际巨头在依靠资本优势扩大模型规模的同时,还面临着成本失控与资源浪费的困境。DeepSeek所采用的精益模式从根本上解决了高成本和资源浪费的问题,使企业在有限资源下实现最优效能,不仅让DeepSeek在技术上实现了突破,更为整个行业提供了一种全新的发展路径,通过降低数据、模型和部署的总体成本,大幅度提升产品性价比,为广大中小企业和开发者创造了共享AI红利的机会。

1.OpenAI

OpenAI推出的GPT-3和GPT-4等超大规模模型在引领了行业发展的同时也构建了技术壁垒。这些模型的训练和推理需要大量的算力和资源支持,斯坦福大学报告显示,GPT-3模型在训练期间释放了502公吨碳,是目前有据可查的大模型中耗能最严重的,其碳排放量约等于人均91年的碳排放量,GPT-5每个训练周期消耗约5.6亿千瓦时电力,相当于3万户美国家庭的年用电量。巨大的能源消耗带来了高昂的训练成本,也使OpenAI面临着资源供应和环保压力,即使有雄厚资本支持,OpenAI也难以长期承受这种极端资源消耗。此外,OpenAI完全依赖NVIDIA H100集群和CUDA生态,难以适应新兴硬件架构,其产品的市场竞争力和可持续发展能力也会受到影响。与OpenAI的成本模式不同,DeepSeek的精益运营方式,使其在全球AI竞争中具备了显著的成本优势。

2.Cohere

Cohere是专注于自然语言处理的AI公司,其技术能力出色,但云服务费用的不断攀升,使其在大规模模型训练上面临着巨大的经济负担。在云服务成本的压力下,Cohere放弃了训练340B以上参数的超大模型。单纯依靠资本堆砌算力和数据,并不能长久维持技术优势,对于需要超大规模训练资源的企业,训练成本和算力费用会成为制约其发展潜力的关键因素,在有限资源下实现技术突破是企业真正面临的挑战。DeepSeek则通过技术创新高效利用现有计算资源训练出更高性能模型,降低了对云计算和硬件的依赖,拥有更广阔的发展空间。

3.Stability AI

Stability AI作为新晋独角兽企业,其资金主要用于开发图、文、视频和3D等多模态开源模型。为满足算力需求,Stability AI选择从亚马逊AWS、Google CloudPlatform和以GPU为中心的云运营商CoreWeave租用计算基础设施,每年费用约为9900万美元。在算力上的高昂开支迫使其不得不进行比例高达30%的大规模裁员以应对成本压力。此外,Stable Diffusion及其上百个相关社区由于无法支付每年高达2000万美元的运营成本,于2023年宣布暂停服务。高昂的算力成本和数据存储费用对AI公司运营产生巨大影响,长期来看这种模式必然会影响企业创新活力和市场竞争力。

五、以“场景深挖”突破终端市场国际生态霸权

AI大模型的商业化竞争最终要落在“终端市场”,必须深入挖掘行业需求,构建多模态行业大模型,逐渐从技术研发过渡到终端落地和场景应用。终端市场的竞争重点在于将AI大模型技术深度嵌入应用场景,构建垂直生态,实现技术和本地化应用的精准匹配。大型科技企业通过打造闭环生态系统构筑生态霸权,实现对产业链上下游、用户群体和技术标准的全面控制,构建全面生态应用场景。拥有世界上最大的单体应用场景和用户规模,是我国发展人工智能的独特优势。与西方人工智能企业依赖大规模通用数据不同,DeepSeek以需求定义技术,深度挖掘中国市场的本土化需求,构建针对特定行业的数据资产,以“场景深挖”突破国际生态霸权,成功在中国甚至国际竞争中占领一席之地。

(一)DeepSeek落地优势

面对大型科技企业的生态垄断,DeepSeek充分利用我国超大市场规模和应用场景的优势,进行国内市场场景深挖,聚焦政务服务、制造业智能化与中文语言情景等特定领域,构建其独有竞争优势。DeepSeek以方言理解引擎在中国市场实现全方位方言覆盖,为政府服务系统赋能。通过与国内硬件厂商深度合作,形成国产软硬件适配协同,构建广泛的应用生态体系,并在垂直领域提供行业解决方案,实现大模型应用落地,以“低成本技术输出+高粘性生态绑定”的策略,加速从单一模型提供商向AI基础设施平台转型,巩固其长期商业价值。

1.本地化能力

中国的语言和文化具有高度多样性和地域性,各地方言在政务沟通、日常交流中占据重要的地位。为实现真正的智能化服务,AI系统必须具备对多样化语言的理解和处理能力。DeepSeek在这方面具有明显的优势,采用“声学特征—语义关联”双通道架构构建方言理解引擎,支持理解83种中国方言,包括粤语、闽南语等复杂声调语言和一些地域性较强的少数民族语言。全方位的语言覆盖使DeepSeek能适应各种语言环境,在政务服务场景准确率达98%,政务部门借助DeepSeek大模型开展行政审批、民生服务等工作,显著提升了工作效率和服务质量。成都在天府市民云平台试点政务服务意图识别,利用DeepSeek大模型分析市民咨询内容,分流准确率突破85%。此外,DeepSeek在模型训练阶段,依托超2000亿token的中英双语数据进行语义训练,其中的中文语料占比达58%,构建了包含5000亿汉字级别的语料库,显著提高了中文语境下的消解能力,涵盖古典文献、现代著作、专业论文等多维度内容,创新性地采用“千字文”式分词算法,将现代汉语与古典语法深度融合,使模型对成语、典故的理解准确率提升38%;建立古籍校验体系,构建了包含2.3亿字精校文本的古典知识库,使模型在古诗文生成任务中的BLEU值达到72.5,显著优于通用模型。DeepSeek经过长期数据积累和场景实践,不断完善本地化算法,敏感捕捉文化习俗、地域特征和社会情感,构建了中国文化常识的知识图谱,在处理情感表达、文化符号和地域性用语方面表现出色,凭借对本土语言的深度理解,牢牢抓住中国市场的需求,在政务、金融、教育等领域积累了广泛的客户基础。

2.硬件适配

硬件性能是制约AI大模型响应速度和用户体验的重要因素。传统AI大模型依赖国外高端芯片的硬件条件,面对复杂多变的国际形势,国外高端芯片供应风险成为企业发展的重要阻碍。DeepSeek采取与国内领先芯片制造商进行深度合作和联合研发策略,针对性地调整模型调整和优化算法,将其AI大模型与国产芯片进行精密的调优和适配,成功将AI推理速度提升了5倍。DeepSeek已与华为昇腾、沐曦和海光信息等17家国产AI芯片完成适配,覆盖了从训练到推理的全链条场景。其中,针对华为昇腾的特性,DeepSeek的研发团队对模型架构进行深度优化,重新构建了AI模型的计算流程。在自然语言处理任务中,基于昇腾芯片的性能优势,DeepSeek在训练效率和响应速度上,已经达到能与使用顶级英伟达GPU芯片相媲美的水平。华为云、阿里云与腾讯云也纷纷接入DeepSeek,通过API定制方案,融入智能客服、数据分析等场景,形成“开源模型+本土算力”的新生态。DeepSeek本土生态快速壮大的前提是其对国产硬件的适配性,它采用PTX计算平台和混合精度训练技术,大幅提升了算力效率,使其模型在保持高性能的同时,大幅降低了对硬件的依赖,提供了“以软补硬”的技术方案,使其AI大模型能适配诸多国产硬件,其对调用接口和AI软件工具包的标准化,使华为昇腾、寒武纪等其他非英伟达芯片能很快完成适配,为国产算力芯片带来了巨大发展空间,形成国产软硬件适配协同。通过与国产芯片深度绑定,DeepSeek的解决方案在数据中心、云端和边缘设备之间实现无缝对接,提高了整体运营效率。

3.行业解决方案

单一技术优势难以形成持续竞争力,与实际应用场景的紧密结合是获得持续竞争力的关键。DeepSeek已围绕金融、医疗、制造、政务等12个垂直行业实现落地,提供针对性的行业解决方案,为客户实现了更为精准的AI大模型支持。在医疗领域,DeepSeek通过分析和处理海量医学影像数据,协助医生进行疾病诊断和治疗方案制定,其中,北京协和医院装载了“满血版DeepSeek-R1+量子安全”双技术体系的“协和智枢”综合智能体已进入实际应用阶段,构建了医疗、服务、管理“三位一体”的多元场景应用。在金融领域,DeepSeek能实时监测金融市场,实现风险监控和精准投资,降低金融机构的运营成本。当前,中国工商银行已完成DeepSeek最新开源大模型的私有化部署,并将其接入工银智涌大模型矩阵体系。在制造业领域,DeepSeek通过生产线智能化、设备故障预测等技术,帮助企业提升生产效率和设备管理水平。中国中化集团人工智能平台已成功接入DeepSeek系列模型。此外,中国电信、移动、联通三大运营商也宣布全面接入DeepSeek,实现了多场景对接,为DeepSeek的广泛应用提供了强有力的支撑。无论是智能客服、数据分析,还是智能推荐、诊断辅助,DeepSeek的行业解决方案都在实际运营中展现出极高的效率。DeepSeek凭借其对行业需求的洞察及定制化服务,与各龙头企业深度合作,逐步建立起一个涵盖研发、部署、运维和优化的全流程解决方案体系,使DeepSeek的客户复购率高达91%,形成了稳固可持续的商业生态。

(二)海外玩家短板

ChatGPT为代表的海外知名大语言模型,虽然凭借其先发技术优势实现生态霸权,在全球范围内拥有庞大的市场份额,但其模型训练数据中缺少中文场景,在中国市场的竞争力受到了文化差异和法律法规等因素的制约,其中,DeepSeek-R1在性能与OpenAI-o1正式版对齐的同时,在中文语义理解任务上领先15%。此外,相较于DeepSeek行业深耕的垂直领域专用模型,海外AI大模型“通用模型+云端服务”的模式在竞争中稍逊一筹。数据显示,在中国企业级AI市场,DeepSeek以37%份额领先,远超OpenAI的12%。

1.ChatGPT

ChatGPT是全球最知名的大语言模型之一,它以强大的语言生成能力和广泛的应用场景在全球范围内拥有广泛应用。但由于未通过中国《生成式人工智能服务管理暂行办法》算法备案,ChatGPT在中国市场的应用存在明显的法律风险。我国的数据安全、算法透明度以及内容合规性均受到严格监管,尤其是涉及个人隐私和敏感数据处理时,任何未经过审批的技术产品都可能面临被禁用或限制推广的风险。因此,ChatGPT在中国的推广面临着合规障碍,这使它在中国的市场渗透力大大受限。在CLUE中文理解基准测试中,DeepSeek的情感分析F1值达91.2%,超越了GPT-4中文版的89.7%。作为本土大模型,DeepSeek在技术合规和本土化改造方面具有天然优势,且其技术始终紧密结合中国法律法规和政策要求,确保了其在中国市场的合规性与合法性,使其在中国市场上获得了更广泛的认可与应用。

2.Claude

Claude是Anthropic发布的大语言模型,受到宪法AI和伦理规则的制约,Claude在情感理解和伦理判断方面具有独特的优势。但由于缺乏中文场景优化,Claude在情感理解、文化背景和语言差异等方面与本土模型存在差距。中国用户与大语言模型互动时,往往需要系统具备细腻的情感表达和文化理解,但Claude模型在中文语境中的表现较为平淡。DeepSeek通过深耕本地数据优化大语言模型,在中文情感分析、语义理解等方面表现出色。在情感理解方面,DeepSeek不仅能精准识别各种语境中的情感表达,还能根据用户的需求和文化背景进行个性化调整,在中国市场DeepSeek更加符合用户期望。

3.Bard

Bard是Google推出的AI助手,在全球拥有庞大的用户群体,但它主要基于英文语境和西方文化背景进行训练。由于文化差异和表达习惯不同,Bard在中国市场的应用中频频出现合规问题,在复杂情境下出现理解错误或回答不准确的情况,在面对具有歧义的问题时,无法判断用户的真实意图。而且在处理中国特定问题时,还会产生一些不合适或不合规的回答,这严重影响了其在中国市场的被接受度。而DeepSeek则能根据中国本土文化情感和法规要求,构建一套符合本土实际的内容生成和审核机制,提供更加符合中国用户需求的AI解决方案,进一步巩固了其在中国市场的领先地位。

六、以模型敏捷进化促进技术迭代布局未来

随着全球人工智能技术竞赛日益激烈,AI大模型面临技术迭代速度和商业落地能力的双重考验,参数规模成了诸多企业追逐的目标。参数规模的扩大在提高模型性能的同时,会带来巨额算力开销和能耗激增,从而对AI产业和技术发展产生负面影响。为了避免“规模诅咒”,AI企业不能只依靠单纯的算力和规模堆砌提高模型性能,必须转变技术发展路线,创新底层架构,促进技术迭代,实现模型的敏捷进化。随着逆全球化和单边主义的不断加剧,以DeepSeek为代表的我国高新技术企业面临技术壁垒和产业链供应链断链风险,人工智能和数字技术的不断发展,也使得数据主权和AI伦理问题越来越受到公众重视,外部环境的负面因素对我国AI独角兽企业的发展提出了更高的要求。

(一)DeepSeek发展路线图

2023年7月成立之后,DeepSeek被定位为通用人工智能和大模型研发的技术引擎,专注于自然语言处理、代码生成和多模态数据处理等领域,致力于开发先进的大语言模型及相关技术。此后,DeepSeek发布并开源了一系列AI大模型,在AI国际市场上崭露头角。其发展战略主要分为三个阶段,2024年第三季度实现技术突破,推出多模态模型,2025年致力于构建平台生态,2026年建立分布式训练网络,实现对全球算力资源的整合。DeepSeek的未来战略将聚焦于技术深耕、市场拓展和平台生态建设,实现从单一模型开发商向AI基础设施运营商的战略转型,是DeepSeek在规避“规模诅咒”风险中不断寻求进化的实践路径。

1.2024:技术突破

2024年是DeepSeek的生态扩张年,它先后发布并开源了用于高级多模态理解的DeepSeek-VL2模型和总参数高达6710亿的DeepSeek-V3模型,DeepSeek-V3模型引入了FP8混合精度训练和自定义多GPU通信协议,采用数据蒸馏技术,使得该模型在总成本控制在600万美元左右的情况下,能接近OpenAI最新版本的数理推理能力,广泛用于智能对话、文本生成、知识推理、自然语言理解及编程与代码相关操作。千亿参数规模的突破表明DeepSeek在基础研究上的实力不断增强,为未来更大规模模型的智能化应用打下了坚实的基础。DeepSeek拥有混合专家架构、多头潜在注意力机制、知识蒸馏和多模态创新技术,在大规模和高算力时代以低算力成本建立了竞争优势。此外,DeepSeek支持视频生成与3D建模,在虚拟现实、增强显示以及数字孪生领域具有巨大的应用场景。

2.2025:生态构建

2025年初,DeepSeek发布并开源了DeepSeek-R1和Janus-Pro-7B模型。其中,DeepSeek-R1专注于推理能力,通过强化学习和知识蒸馏技术,在数学、代码、自然语言推理等任务上,性能比肩OpenAI o1,且训练成本非常便宜。Janus-Pro多模态大模型则进军文生图领域。在模型架构方面,DeepSeek还计划在2025年进一步推出万亿参数的MoE架构模型,维持其高性能低成本低能耗的竞争优势。模型不断迭代升级的同时,DeepSeek的发展重点开始转向培育开发者生态和生态系统构建,推动技术的广泛传播和应用,通过推出模型微调平台和低代码部署工具,降低开发者门槛。此外,DeepSeek计划通过建立开放的AI Agent应用商店,为企业提供丰富的智能体解决方案,部署垂直化应用生态,形成强大的产业协同效应,并以此为平台孵化10万智能体开发者。AI Agent作为具备自主决策和行动能力的智能系统,被广泛应用于智能客服、个人助理、数据分析等领域,具有巨大的潜力和价值。同时,DeepSeek宣布启动万亿生态基金,以加速技术创新与开发者生态的繁荣,构建开放、协作、共赢的区块链生态系统,推动AI行业的技术民主化,并定义智能体交互协议标准,掌握生态话语权,对抗资本碾压形成的垄断局面。在全球化布局方面,DeepSeek计划到2025年末覆盖50多种语言,重点突破东南亚和中东等新兴市场,并通过区域数据中心和合规框架的建设,进一步提升其在国际市场中的影响力,届时DeepSeek将成为全球最大的AI智能体生态平台之一。

3.2026:资源整合

为应对大模型规模扩大带来的算力资源需求的增加,DeepSeek计划在2026年建设一个全球范围的分布式训练网络,采用区块链+联邦学习架构,整合全球闲置算力资源,构建庞大的低成本高效率计算资源池,降低大模型训练成本和门槛。DeepSeek将启动全球开发者计划,在硅谷、新加坡设立研发中心,致力成为GitHub最活跃的AI开源项目之一,推动DeepSeek技术生态开放和共享,形成跨国跨地区协同效应,打破传统云服务商的垄断格局,开创“共享算力”新范式,推动完善全球AI技术标准和数据共享机制,在国际市场上建立持续竞争优势。此外,DeepSeek近期宣布投入20亿元建设“可信AI实验室”,并计划在2027年推出具备因果推理能力的DeepSeek-AGI Prototype,持续推动大模型技术迭代。

(二)国际竞争风险

人工智能时代的大国竞争与科技博弈加剧,全球AI发展格局加速分化,拥有先发优势的国家出台一系列技术封锁与出口管制措施,遏制竞争对手及后发国家的AI技术进步,维护自身在AI领域的世界主导地位,这将对全球AI技术的合作与发展产生一系列不利影响。随着人工智能等数字技术的迅猛发展,数据成为新的生产要素,开始被视为国家主权的重要组成部分,数据跨境流动因此受到限制。同时,伴随着技术的不断发展,关于人工智能的伦理争议也愈发受到关注。作为后发国家的AI初创企业,尽管DeepSeek在技术、市场和平台建设上具有强大的竞争力,但其全球化发展的过程中仍不可避免地受到地缘政治、数据主权和伦理争议的威胁。

1.地缘政治

当今世界变乱交织,地缘政治局势动荡不安。在中美摩擦背景下,以美国为首的西方国家掀起的“技术封锁”和“逆全球化”潮流,使得以DeepSeek为代表的国内人工智能企业发展面临新的挑战。当前,国内人工智能企业在芯片领域高度依赖英伟达、AMD等国际芯片厂商,GPU等人工智能基础设施领域国产化率较低,国内龙头企业与国外巨头具有较大差距。自2019年美国将多家人工智能公司列入实体清单后,AI算力芯片断供的风险严重影响了中国人工智能企业的供应链安全和研发过程。美国最新发布的《人工智能扩散框架》对AI全产业链从高端芯片到大模型进行遏制。此外,部分人工智能领域巨头企业和政府部门结盟以增强其在数字经济领域的“垄断势力”,必然会抑制我国人工智能初创企业的发展。为应对地缘政治风险,DeepSeek选择与华为昇腾、寒武纪等国产芯片企业深度合作,积极推动自主研发和技术突破,加快提高国产化率,与全球多家芯片厂商建立战略合作关系来分散风险。

2.数据主权

数据是AI技术发展的核心驱动力,AI系统的性能在很大程度上依赖于数据的数量和质量。海量数据的收集、存储和分析能推动算法不断优化,因此拥有更丰富、更高质量数据资源的国家将在AI时代占据资源优势,数据成为国家竞争力的重要构成。随着数字技术的不断发展,全球各国都在不断加强数据安全和隐私保护,各国纷纷出台数据本地化政策,要求数据在本国境内存储和处理,导致“数据孤岛”现象的出现,使得数据资源无法在全球范围内实现最优配置,进而影响AI的全球化部署。而且不同国家和地区在数据保护和数据流动方面的政策差异显著,增加了数据跨境流动的复杂性。其中,欧盟的《数字服务法》和《人工智能法》等法规正在出台中,严格限制跨境数据流动,这必然会直接影响DeepSeek在欧洲等地区的数据资源获取。为应对数据主权风险,DeepSeek需要在不同国家和地区建立本地数据中心,确保数据处理符合当地法律法规,强化对数据隐私和安全的保护。同时,DeepSeek要构建分布式数据管理系统,实现数据本地化存储与处理,确保数据的合规性和安全性,并积极参与国际数据治理和标准制定,降低因数据主权带来的市场障碍。

3.伦理争议

随着生成式AI技术的快速发展,版权归属、内容创作等伦理问题也日益凸显,AI生成内容的所属权在AI创造者、数据提供者还是使用者,这一问题仍未得到国际社会的解答,版权纠纷不可避免地成了AI产业发展的一大挑战。生成式AI一旦涉及版权纠纷,不仅会损害企业声誉,还可能引发法律诉讼和经济赔偿问题,进而影响技术商业化进程。此外,不同经济体对于技术伦理基准具有不同的价值观导向,这也导致跨国大模型研发合作面临多重合规问题,如OpenAI的ChatGPT因不符合欧盟算法透明度要求被限制部署,而中国大模型厂商亦难以满足美国国防部的AI伦理审查标准。因此,人工智能企业必须建立严格的版权保护和伦理审查机制,确保产品设计和数据处理环节的合法合规,并与政府、学界及行业协会共同推动版权和伦理标准制定,加强与监管机构的合作,提高技术透明度,缓解伦理争议,维护企业名誉,为生成式AI技术的健康发展营造良好的环境。

七、新范式启示

人工智能技术的突破不是单纯的算力竞赛或算法迭代,而是技术发展范式的变革。当前,中国人工智能企业面临着双重挑战,一是突破国际技术封锁,二是克服国内市场的资源错配。我国AI独角兽企业DeepSeek在人工智能的国际竞争中,突破了传统技术局限和市场局限,以全栈开源促进技术民主化,打破技术垄断,形成分布式创新网络,以架构创新、算力博弈和成本控制推动效能革命化,减少资源消耗,建立成本优势,以场景深挖实现应用场景化,延伸产业链,提升商业化价值。技术民主化、效能革命化和应用场景化构成的三维突破框架为我国人工智能企业的崛起提供了新范式,改变了全球AI竞争规则。

(一)技术开放民主化

科技巨头企业往往通过控制数据、模型和算力等资源,形成技术、资源和市场垄断,初创AI企业很难突破垄断打开知名度。DeepSeek选择从基础模型架构到配套训练框架全栈开源,提供从数据处理到训练优化的完整技术方案,以开源战略在开发者社区迅速打开知名度。开源不仅是技术层面的战略选择,它还代表了技术资源共享和开放的理念,推动了技术民主化的发展,将原本集中在头部企业的技术垄断权分散至中小开发者与行业用户,使AI技术不再是少数大企业垄断的特权,而是能被广泛传播、共享和创新的资源,使初创企业和中小开发者在公平竞争中共享AI红利,倒逼科技巨头企业为争夺市场份额逐步开源。在DeepSeek的开源生态中,成千上万的开发者通过贡献代码和创新算法形成分布式创新网络,反哺核心技术的迭代升级,形成“开放—创新—再开放”的增强路径,产生生态正反馈效应,在边缘计算、轻量化模型等领域形成事实标准,获得技术标准话语权,迫使国际厂商兼容中国技术体系。作为DeepSeek的核心战略之一,“全栈开源”迅速为其打开市场,打破了人工智能企业的技术垄断,为全球人工智能技术的发展提供了一个更为平等的竞争平台。

为促进技术民主化,实现技术突围,AI独角兽企业首先要加强技术开放,建立技术分层释放机制。首先,对于基础框架和通用模型全面开源,在GitHub等平台建立开源社区,采用Apache、MIT等宽松协议允许商业化,降低技术门槛,吸引更多开发者参与技术创新,快速扩大企业生态规模;行业专用模型则半开放,在授权的前提下允许商用,保障商业利益的同时促进生态协作。其次,企业应建立多主体分布式创新网络,构建开发者奖励体系,明确知识产权归属和利益分成机制,对关键贡献给予算力奖励或收益分成,形成“技术贡献—资源获取—再创新”的激励路径;与行业伙伴共建数据协作网络,基于隐私技术实现跨企业数据联合训练,共享模型增值收益。最后,企业要开发技术普惠工具,提供可视化模型训练工具,使传统行业从业者无需编程即可搭建AI应用;联合政府建设AI公共服务平台,提供算力租赁、数据标注、模型调优等一站式服务,降低中小企业的技术使用门槛。对于政府而言,一要推动数据资源共享。政府一方面要建立公共数据开放分级制度,对医疗、交通、教育等非敏感公共数据进行脱敏处理后向企业开放,搭建公共数据开放平台和国家级数据交易场所,以区块链技术实现数据确权和交易追溯;另一方面要在智能制造、智慧城市等领域组建跨企业数据,鼓励企业间开展数据合作共享,以税收优惠激励数据贡献,培育行业数据共享联盟。二要建立开源技术转化体系,将开源贡献纳入高新技术企业认定标准,给予税收优惠,鼓励企业开源非核心算法至AI开源社区;制定和完善相关法律法规,建立健全人工智能专利审查制度,加强对人工智能技术的知识产权保护。三要加强对人工智能技术的监管,规范人工智能技术的开发和应用,促进数据安全、隐私保护和算法公平。

(二)效能加快革命化

算力缺乏是制约人工智能技术发展的核心瓶颈之一,随着训练模型规模的不断扩大和模型计算的日益复杂,在科技巨头企业的算力垄断下高效利用有限的算力资源成为人工智能初创企业技术发展的一大挑战。面对算力制约,DeepSeek一方面积极寻求本地硬件厂商的合作寻找替代方案,另一方面积极促进模型架构、算法设计等多个层面的技术创新,优化算法,通过多模态混合架构结合多模态信息提升AI大模型的感知能力,降低对单一算力的过度依赖,以混合精度训练、模型蒸馏等先进技术精简算力需求,提升算力利用率和计算效率。DeepSeek通过效能革命化为AI独角兽企业提供了一个崭新的范式:真正的创新不是对算力的无止境追求,而是通过智能化的算法优化,充分利用有限算力资源,实现人工智能产业的可持续发展。效能革命通过算法压缩、硬件协同和绿色算力提升单位算力的有效产出,突破“算力投入—性能提升”的线性增长陷阱,将算力限制转化为倒逼技术创新的动力,推动我国AI独角兽企业探索精细化技术路线,形成难以复制的技术“护城河”。

为推动效能革命化加快实现技术突围,AI独角兽企业首先要加强技术创新和研发投入。技术创新是人工智能企业实现效能革命化的核心驱动力,企业应加大在知识蒸馏、参数剪枝、动态量化算法等技术领域的研发投入,建立专门的研发团队,关注行业前沿技术动态,与高校、科研机构开展产学研合作,共同攻克技术难题。其次,要实现从算法到硬件的全栈升级来优化技术效能。积极寻求与华为昇腾、寒武纪等本地硬件厂商合作,寻找端侧替代方案或优化方案,采用云计算、边缘计算等技术,研发可根据硬件资源动态调整模型结构、训练策略的智能算法,开发针对国产芯片的深度学习编译器,实现从算法到硬件端对端的优化,实现资源利用率最大化;与芯片企业联合设计近存计算单元,开发存算一体化芯片,将推理环节下沉至终端设备,降低数据搬运能耗,实现算法和硬件的协同优化。最后,要建立能源管理体系。将能效指标纳入研发团队考核体系,布局绿色算力,在西部水电富集区建设智算中心,利用可再生能源降低算力成本;采取算力民主化运营模式,构建弹性算力池,将企业自身算力、合作者闲置算力、公共超算资源整合为虚拟算力池,支持按需调度。对政府而言,首先要统筹规划东数西算,在西部建设智算中心集群,整合各地区算力资源,打造国家级算力网络,支持联合寒武纪、华为昇腾等国产芯片企业开展软硬件协同优化,构建国产化算力生态。其次,要鼓励技术突破,将算力优化、边缘计算等关键技术需求转化为国家科研攻关项目,鼓励AI独角兽企业与研究机构和高校合作,实现“企业出题—高校公关—联合产业化”的闭环机制。最后,政府推进边缘计算基础设施建设,在不同地区布置边缘计算节点,优化数据处理效率。

(三)应用必须场景化

应用场景化是人工智能技术长足发展的关键因素之一。人工智能技术的未来不在于谁拥有最大的模型,而在于谁能创造最广泛的价值。盲目追求规模竞争和参数竞争,往往忽视AI技术的实际应用价值,导致技术发展与行业需求脱节。DeepSeek通过扎根产业实际需求,聚焦行业应用,促进人工智能技术的应用场景化,在金融、医疗、政务等多个垂直行业成功落地,极大地提升了DeepSeek的市场竞争力。应用场景化以垂直行业需求为研发导向,确保技术迭代始终实现价值创造,实现技术与场景的深度契合,并由场景深耕积累的领域知识反哺算法优化,形成“数据—场景—效能”的正向循环。开发者基于真实场景反馈的技术改进,能增强技术方案与行业需求的贴合度,构建独有竞争力。此外,AI独角兽企业推进应用场景化,能针对大型企业、中小企业、个体开发者等不同客群,提供全栈式解决方案并实现多层次产品市场分层覆盖。

为推动应用场景化,实现AI技术突围,AI独角兽企业首先要构建需求挖掘机制,联合行业协会梳理行业痛点,组建跨学科团队深入一线应用场景捕捉隐性需求,并开发价值量化模型,将技术指标转化为业务指标,确保研发投入对准客户需求;设立场景创新挖掘器,允许团队独立开发垂直领域产品,经市场化验证之后升级为正式业务。其次,企业要构建场景知识沉淀体系,建立涵盖工艺流程、设备参数和异常模式的行业知识图谱,将专家经验转化为结构化数据,部署在线学习系统,使AI模型能根据现场反馈自动更新决策,保持与场景变化同步;与行业龙头共建联合实验室,共享场景与数据,加速技术商业化;以基础模型为核心开发行业插件,提供行业专用模型微调工具包,降低技术适配成本,推动中国标准国际化,主导行业标准制定。最后,数据孤岛是制约场景化落地的核心障碍,企业需要建立“采集—治理—应用”全链条数据管理体系,探索数据资产化运用模式,形成“数据驱动服务”的商业闭环。数据和算力是应用场景化的基础保障,对政府而言,首先要加强相关基础设施建设,建设大型数据中心和超级计算中心,制定数据共享标准和规范,促进公共数据、行业数据的流通与共享,为企业提供强大的算力支持。其次,单一企业难以覆盖全场景需求,政府要推动协同创新生态建设,建立场景解决方案交易市场和场景创新评估指数,实现技术和行业需求的精准匹配,引导和支持地方政府和领军企业着眼于全局,推动场景建设,打破体制和区域分割,针对各细分领域场景,打造应用落地模范,形成以场景化应用促进技术突破、以技术突破反哺场景深化的良性循环。

注释与参考文献从略,请参阅期刊纸质版原文

 

朱肖霏 | 中国社会科学院大学应用经济学院博士生

 

陈晓东,朱肖霏.DeepSeek技术突围重构全球人工智能产业竞争格局的六个维度:范式与启示[J].南京社会科学,2025,(07):41-57.DOI:10.15937/j.cnki.issn1001-8263.2025.07.005.

分享到: