智库观点:解码DeepSeek

责任编辑:包建羽 2025.02.10 08:13 来源:中移智库

2025年春节期间,DeepSeek爆火出圈,发布开源大模型,在数学、代码、自然语言推理等任务上表现追平OpenAI,在美国对我国AI产业链全方位打压遏制的背景下,成功走出了一条低成本、高性能、国产化“突围之路”并震惊世界,为加速国产AI大模型降本提效、生态繁荣注入了强大动力。

出圈情况

DeepSeek凭借“低成本+高性能”模型全球破圈。DeepSeek早前发布的V3模型每训练1万亿tokens仅需在2048块H800 GPU集群上耗时3.7天,总计278万 GPU小时、557.6万美元的训练成本,约为GPT-o1的1/20、Llama 3.1的1/10。

新发布的R1模型API服务价格为每百万输入tokens 1-4元、每百万输出tokens 16元,远低于同期 OpenAI o1 API定价水平,且在逻辑、数学及中文任务中表现优异。DeepSeek应用程序霸榜苹果应用商店第一名,获全球主流公有云公司平台接入。

成功原因

DeepSeek通过较少算力实现高性能模型表现,主要通过算法创新和工程优化等方式大幅提升模型效率。一是成功走通“纯”强化学习(RL)路径。DeepSeek-R1抛开以预设思维链模板和监督式微调等为特点的AI推理能力传统训练方法,仅依靠简单的奖惩信号来指导优化模型行为,不仅省去了SFT和复杂的奖惩模型对计算资源的需求,还促使模型以“顿悟”的形式学会思考。二是实现算法、框架和硬件的优化协同。为大幅减少内存占用和计算量,DeepSeek系列模型在算法层面引入专家混合模型、多头隐式注意力、多token预测,框架层面实现FP8混合精度训练,硬件层面采用优化的流水线并行策略,同时高效配置专家分发与跨节点通信,实现最优效率配置和资源节约。

DeepSeek具有拥抱AI的创始基因丰富的算力资源储备、极具天赋的本土人才团队。一是自带AI创始基因。创始人梁文锋毕业于浙江大学电子信息工程和计算机科学专业,早年创立对冲基金“幻方量化”,实现投资策略全面AI化,2023年5月成立深度求索,聚焦发展通用人工智能。二是丰富的算力资源储备。幻方量化曾投资超过10亿元,先后研发了AI超级计算机“萤火一号”和“萤火二号”。其中,“萤火二号”搭载了约1万张英伟达A100显卡。三是极具天赋的本土人才团队。DeepSeek团队工程师和研发人员几乎都来自清华大学、北京大学、中山大学、北京邮电大学等国内顶尖高校,鲜有“海归”,以走出校园不久的博士为主,也有部分成员有英伟达、微软等国外企业工作或实习经历。

产业影响

一是DeepSeek打破大模型发展路径依赖,基本确立了符合中国实际的AI发展道路。DeepSeek 打破了 AI 大模型发展对算力和标注数据的高度依赖,展示了通过改进模型架构和训练方法,以较少的数据标注量和算力消耗提升模型推理能力的可行性,标志着我国在硬件上长期存在代际差距的情况下,可采取软硬协同方式实现对海外顶尖大模型的性能追赶和成本领先。

二是DeepSeek提升行业对模型的后训练和推理需求,长期提振算力需求。DeepSeek R1在 V3 的基础上进行了两次强化学习,明显提升了训练的探索时间和推理思考时间,将在后训练阶段延续Scaling Law法则。随着高性能低成本模型的出现将大幅降低国内AI赋能千行百业的应用开发门槛,推动AI产业链从“训练驱动”向“推理驱动”转变,带动推理算力需求加速释放。

三是DeepSeek以模型开源推动AI平权,开源路线有望打造应用繁荣的“安卓时刻”。DeepSeek完全开源了模型权重,允许其他开发者将模型用于商业用途并进行模型蒸馏。已发布了基于R1蒸馏Llama与Qwen的6个小模型,在多项基础测试集中性能对标 o1-mini,被Facebook首席人工智能科学家杨立昆誉为“开源模型对闭源模型的胜利”。开源模型通过知识蒸馏快速打造高性能、轻量化小模型,将驱动端侧模型在手机、电脑、眼镜等智能硬件上的部署应用,形成AI应用百花齐放的格局。

通信世界网版权及免责声明:
1、凡本网注明“来源:通信世界全媒体”及标有原创的所有作品,版权均属于通信世界网。未经允许禁止转载、摘编及镜像,违者必究。对于经过授权可以转载我方内容的单位,也必须保持转载文章、图像、音视频的完整性,并完整标注作者信息和本站来源。
2、凡本网注明“来源:XXX(非通信世界网)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。
3、如因作品内容、版权和其它问题需要同本网联系的,请在相关作品刊发之日起30日内进行。
发表评论请先登录
...
热点文章
    暂无内容