2024年12月26日国内AI初创公司深度求索开源发布大模型DeepSeek V3,迅速引发国内外广泛关注。仅1个月后,深度求索再次开源发布DeepSeek-R1,国内外爆发使用热潮,上线仅18天全球日活用户数超1500万,成为全球增速最快的 AI 原生应用。DeepSeek通过在模型架构、算法、训练方法、推理技术等方面的工程化技术创新,显著提升了算力资源使用效率和模型效果,降低了人工智能研发与应用的门槛,也通过开源策略为人工智能的普惠应用带来了新的想象空间。但与此同时,随着模型性能的增长和应用的普及,人工智能也容易带来新的社会风险。
DeepSeek为人工智能普惠研发与应用带来的积极影响
降低研发门槛,为全球开发者带来创新研发技术和高性价比模型底座
第一,DeepSeek核心技术能力带动模型研发水平提升。DeepSeek-R1发布后迅速占据全球多个权威大模型性能测评机构头部排名,在数学、代码以及自然语言推理等任务中与OpenAI o1比肩,且实现训练及推理成本的大幅下降,DeepSeek模型技术引发全球开发者关注。DeepSeek公开核心技术报告,详细阐述其创新性架构原理,以及基础设施布局、预训练、后训练等关键环节技术,为全球开发者提供创新性低成本高性能研发训练思路,有效降低开发者试错成本投入。
第二,DeepSeek减少开发者对GPU资源依赖。根据模型训练领域的Scaling Law,GPU资源是影响模型性能提升的关键因素之一。以美国Meta公司为例,其在2024年7月发布开源模型Llama 3.1,训练期间使用的英伟达H100 GPU数量高达1.6万个。中小企业往往难以获取模型训练所需的大量GPU资源,DeepSeek通过开源模型参数能够有直接有效的为开发者提供具有顶尖模型能力的基础模型,大幅减少开发者在模型预训练阶段对GPU资源的依赖。
第三,基于DeepSeek的二次开发性价比较高。GPT-4训练成本高达7800万美元,DeepSeek基于算法架构优化成功将模型训练成本降低至同类型模型的十分之一以下。基于MIT开源协议,DeepSeek支持开发者基于原始模型进行领域微调、压缩部署、模型集成等二次开发操作,相比于使用Llama模型,DeepSeek模型二次开发时所需的算力成本更低,二次开发后的模型更具性价比。
降低应用门槛,促进技术普惠与教育普惠
第一,DeepSeek基于推理成本优势助力AI应用成本降低。DeepSeek推理成本低至每百万Token 0.14 美元,约为OpenAI推理成本的1/53。目前英伟达、华为云、微软 Azure、阿里云、百度智能云、腾讯云、移动云等国内外大型云厂商均已接入DeepSeek-R1,结合自身算力资源推出DeepSeek API调用和DeepSeek一体机等产品服务,有效降低企业及个人用户应用成本。
第二,DeepSeek开源免费,助力企业与开发者高效创新。一是模型开源实现技术普惠。DeepSeek支持免费商用、任意修改和衍生开发,为全球开发者提供广泛的使用和创新空间,大幅降低高性能模型研发门槛与成本。二是完全免费加速规模应用。DeepSeek允许企业和个人开发者无成本地接入,显著降低其初期投入,使其将更多资源聚焦业务创新与市场竞争。例如,网易有道2023年推出自研教育大模型,2025年1月22日发布推理模型,但仅四天后便将其AI教育应用全面接入DeepSeek-R1,DeepSeek为全科学习助手“有道小P”提供更具深度、准确的解题思路。此外,华为小艺、百度文小言、字节飞书等知名AI应用也纷纷接入DeepSeek-R1。
第三,DeepSeek带来的大规模用户使用,促进教育普惠。一是激发用户学习探索欲望。首先,DeepSeek能够快速理解用户意图,并根据对话语境和用户设定的身份转变语言风格及对话模式。其次,凭借丰富的知识储备、精妙多变的文采、追问等互动形式,用户与它的对话可上至量子物理下至明星八卦。人工智能将从“工具”升级为“学伴”,实现大众用户在多学科、多领域的教育普惠。二是引导用户深入学习思考。DeepSeek展示详细思维链,以“透明化推理”让用户了解其思考逻辑,拓宽思路,甚至反向学习如何拆解复杂问题。例如,面对“真正的人生赢家是什么样”的问题,它从历史视角,现代社会价值结构,多维评价体系引入认知科学视角,形成完整的论证链条,为用户提供精准其有逻辑的信息,推动知识传播与思维提升。
人工智能模型能力提升与应用范围扩大带来的隐患
模型推理能力提升加剧“幻觉”隐患
大语言模型的涌现本质决定模型“幻觉”问题无法完全消除,随着强化学习训练方法在推理大模型中的引入,模型“幻觉”问题进一步增强。强化学习通过奖励机制,鼓励模型生成更具创造性和“有价值”的回复,致使模型在某些缺乏充分事实依据的情况下,依然为了追求流畅性和逻辑自洽进行“创造性”的填充和推演,从而加重模型“幻觉”。近期行业权威的Vectara HHEM人工智能幻觉测试显示,DeepSeek-R1幻觉率为14.3%,超DeepSeek-V3近4倍,也远高于行业平均水平。
数据偏见与价值观差异影响模型决策判断
一是数据偏见影响模型决策。DeepSeek的模型训练依赖于大量数据,但数据若存在偏见,则可能被模型继承或放大。例如,在招聘场景中,如果训练数据包含性别或种族偏见,模型可能会倾向于推荐男性候选人,从而导致女性求职者被低估或忽视。此外,在贷款审批等场景中,如果历史数据中存在对低收入群体的歧视性模式,模型可能会拒绝这些群体的贷款申请。二是价值观差异加剧偏见认知。随着DeepSeek在全球140多个国家或地区的广泛应用,其开源特性使其面临不同国家和用户价值观的差异,这可能会加剧对DeepSeek存在算法偏见与歧视的认知。当DeepSeek在不同国家的应用场景中被赋予不同的权重或优先级时,可能会引发用户对算法公平性的质疑。例如,在某些地区,算法可能被设计为优先考虑本地语言和文化背景,而忽视了其他群体的需求,从而导致算法歧视。
[参考文献]
[1] 中信建投:DeepSeek核心十问十答
[2] Meta发布开源AI模型Llama 3.1,训练期间大约使用1.6万个英伟达H100 GPU
[3] AI模型训练成本飙升:GPT-4耗资7800万美元,Gemini Ultra1.91亿美元
[4] 科技行业专题报告:DeepSeek-技术颠覆or创新共赢
[5] 网易有道全线AI应用接入DeepSeek-R1
[6] DeepSeek-R1超高幻觉率揭秘:AI大模型为何频频“开小差”?