观点亮了!DeepSeek技术及组织架构全解析(附系统学习好书)

博文小编

2025-08-05


2025年年初,DeepSeek 成为全球人工智能(AI)领域的焦点,其DeepSeek-V3 和DeepSeek-R1 版本在行业内引发了结构性震动。
《DeepSeek核心技术揭秘》作为市面上为数不多地全面系统介绍DeepSeek技术原理的一本书,为大家深入了解DeepSeek核心技术提供了宝贵的学习资料!

我们有幸邀请到《DeepSeek核心技术揭秘》一书的作者卢菁老师做客博文视点“怎么看”栏目直播间~~
卢菁老师同时是优秀AI科技博主、北京大学博士后、原腾讯爱奇艺算法研究员、《速通机器学习》《速通深度学习数学基础》作者。
以下源自与卢菁老师的对话,带我们一起来看看DeepSeek到底厉害在哪里、又是如何做到这么强的~~

主持人:有小伙伴说,DeepSeek的技术真的很牛,那么这么牛的技术是怎么实现的呢?
卢菁:对,这个技术确实是非常牛。其实,它真正的牛并不是体现在推理效果上,虽然它的推理效果是第一梯队,但是我个人认为,跟阿里的千问相比,也是伯仲之间。
它真正的牛其实体现在低成本训练上,就是只用Llama 1/10的成本就达到了比它还好的效果,并且能够应用在国产化的芯片上,这样,DeepSeek的技术就特别适合咱们自己的国情。
即使芯片各方面被封锁了,很多中小公司的资金不够,也依然可以通过DeepSeek的技术找到一条相对便捷的路。就好像用50 块钱做出了别人用500块钱做出来的东西,能够把成本降得极低。

主持人:您在写《DeepSeek核心技术揭秘》这本书的过程中,最大的感悟是什么?
卢菁:我觉得它其实是综合性的提升。说几个让我印象比较深的。
第一个是,MoE的这个架构。其实MoE是一个很早的概念了,但是因为一些原因,导致它一直停留在论文上,在落地方面一直是有各种各样的问题。DeepSeek通过优化通信以及把路由平衡的各个方面做到了非常好的效果,使得MoE的落地成为了可能。
比如Llama 3出来之后,内部一直有争议,到底是用MoE还是用传统的FFN?他们争论了一年。DeepSeek出现以后,他们果断地选择了MoE,这使得现在中国的技术已经从追赶走向了引领,这是一个非常大的进步。
第二个是,FP8的混合进度训练。它最早是英伟达提出来的,去年7月份的时候,英伟达说他的卡是支持混合进度训练的,但是他们也在探索。但DeepSeek是第一个把这件事做成了的,还是很难得的。读懂DeepSeek的技术可能会让人对显卡GPU的理解比英伟达这个厂商还要深。
第三个是,DeepSeek的公司可能总共也就一百号人,其实人很少,但却能把工程各个方面做到极致。我们在研究这个技术的时候,会发现其中很多技术,比如 MoE和它的显卡通信层,是互相配合起来的,说明它在工程上可能是很多部门一起协调做出来的。在大厂上班的同学可能都有这种感触,部门之间的协同是非常困难的一件事情,但是它能够做到,就说明它的工程组织调度能力是非常强的。所以说它的成功并不是单点的突破,而是整体上的提升,这是我感触非常深的一个点。

主持人:他们为什么能够做到这么厉害?
卢菁:我觉得他可能有几个原因。
首先他的人员素质是非常高的,招聘要求可能是高中期间就获得一些竞赛的奖,虽然员工比较少,但资质是非常高的。
另外就是整体的科研环境是不被外界打扰的。为什么这样说呢?很多公司,比如阿里千问或者百度,很有可能因为外界对他们过高的期望或者自身过高的营收压力而改变动作,反而是DeepSeek这种更加强调单纯且执着的公司,能够做出很多大事来。
然后还有一点跟幻方量化有关,玩量化的朋友可能都知道,幻方是量化的一个头部公司,其实量化对工程能力的要求非常高,可能一秒就是几十亿,那这就造就了幻方极强的工程能力。大家在大厂上班的时候,其实会发现,很多非常好的想法或者创新点迟迟无法落地,它有时候跟算法本身没有关系,跟整个工程基建的环境有很大的关系。DeepSeek的工程底子是非常好的。
最后我还有一点印象比较深,梁文峰说到的高效组织人才这一点,各个技术互相的耦合、配合,这点是非常难的,可能做硬件的、算法的、通信的、工程调度的都来自不同的团队,如何高效地协调各个团队这一点是非常考验管理者的水平的。

主持人:大家伙可以如何高效地利用《DeepSeek核心技术揭秘》这本书去学习DeepSeek的核心技术,您是否有阅读路径方面的建议?
卢菁:阅读路径的话,B站上已经有了配套的视频和PPT,我建议可以先看B站上的视频,然后把书当成视频的总结来阅读。因为图书毕竟是严肃的出版物,用词严谨,写的时候可能放不开,视频上会举出更多生动的例子来帮助大家理解。
大家可以先看视频,把书当成笔记。图书会体现视频里的所有核心点,内容也更加深刻,对照着视频有了大致的理解后,在阅读时会有更深入的理解。

《DeepSeek核心技术揭秘》是剖析 DeepSeek 技术原理的专业技术书,以全面的内容、深入的技术原理解析和前瞻性的行业洞察,为技术人员、研究人员和大模型相关技术爱好者提供了宝贵的学习资料。

本书目录结构

第1章介绍 DeepSeek 的一系列技术突破与创新,如架构创新、训练优化、推理与部署优化等,让读者对 DeepSeek 的性能突破形成直观的认识。同时,介绍 DeepSeek 的模型家族,涵盖通用语言模型、多模态模型、代码生成与理解等领域,展现了 DeepSeek 在大模型的不同细分领域取得的成就。
第2章为初学者深入浅出地讲解 DeepSeek 的使用方法。从推理模型与通用模型的差异,到具体的使用案例,读者可以直观地感受 DeepSeek 在实际应用中的强大功能。对提示工程的详细介绍,可以帮助读者了解如何通过精心设计的提示词更好地发挥 DeepSeek 的能力。对提示词链的高级使用技巧的介绍,为读者进一步提升 DeepSeek 使用效果提供参考。
第3章和第4章是本书的核心与精华。
第3章深入剖析 DeepSeek-V3 的模型架构、训练框架、推理阶段优化、后训练优化等关键技术。从混合专家模型(MoE)的起源与发展,到 DeepSeek-V3 的 MoE 优化,再到对多头潜在注意力(MLA)机制和多 token 预测的详细解读,帮助读者全面了解 DeepSeek-V3 在技术上的先进性和创新性。同时,对训练框架的并行策略、FP8 混合精度训练及推理阶段的优化等内容的深入分析,展示了 DeepSeek 在提升效率和性能方面的不懈追求。
第4章关于 DeepSeek-R1 的技术剖析同样精彩纷呈。预备知识的介绍为读者理解后续内容打下了坚实的基础。对 DeepSeek-R1-Zero 的组相对策略优化(GRPO)算法、奖励模型等关键技术的深入剖析,可以帮助读者了解 DeepSeek 在强化学习领域的创新性探索。对DeepSeek-R1 的训练过程和推理能力的蒸馏等内容的详细阐述,能让读者对这一创新技术的特点有全面的认知。
第5章从宏观的角度分析 DeepSeek 对人工智能技术格局的影响,包括打破硬件依赖迷思、冲击英伟达 CUDA 护城河、引发大模型技术路线的重新思考等多个方面。同时,总结了DeepSeek 成功背后的启示,如领导者敏锐的技术直觉、长期主义的坚持、极致的工程优化等,为读者提供了宝贵的经验和启示。
第6章对 DeepSeek“开源周”的多个技术项目进行了深入的分析。通过对 FlashMLA、DeepEP、DeepGEMM、DualPipe 与 EPLB、3FS 等项目的介绍,展示了 DeepSeek 在开源领域的积极探索,体现了其推动大模型技术普及和发展的决心。这些技术项目的详细解读,能让读者了解 DeepSeek 在降低人工智能技术门槛、促进技术交流与合作方面的巨大贡献。
第7章对大模型的发展进行了讨论。从 MoE 的发展趋势、MLA 的展望,大模型的训练方法、推理部署,到 GPU 硬件及推理模型的发展趋势,以前瞻性的视角为读者描绘了大模型的发展蓝图。

DeepSeek核心+配套视频课程

本书由一线资深技术人员编写,知识点讲解清晰。内容完全围绕DeepSeek核心技术展开,提炼精华,不讨论与DeepSeek有关的大模型基础,而是关注DeepSeek本身。
卢菁,北京科技大学博士,北京大学博士后,B站、视频号优秀科技博主。曾任职于腾讯、爱奇艺等知名互联网公司,主要从事人工智能技术的应用和研发工作,主要研究方向为大模型、多模态、自然语言处理、知识图谱、推荐系统等。著有《速通机器学习》《速通深度学习数学基础》。
戴志仕,资深AI架构师,“寒武纪人工智能”公众号的创立者。2024年CCF国际AIOps挑战赛优秀奖获得者。拥有十余年人工智能算法研究和产业落地经验,成功实施过多个人工智能项目。

读者评论

相关博文

  • 社区使用反馈专区

    陈晓猛 2016-10-04

    尊敬的博文视点用户您好: 欢迎您访问本站,您在本站点访问过程中遇到任何问题,均可以在本页留言,我们会根据您的意见和建议,对网站进行不断的优化和改进,给您带来更好的访问体验! 同时,您被采纳的意见和建议,管理员也会赠送您相应的积分...

    陈晓猛 2016-10-04
    5783 750 3 7
  • 迎战“双12”!《Unity3D实战核心技术详解》独家预售开启!

    陈晓猛 2016-12-05

    时隔一周,让大家时刻挂念的《Unity3D实战核心技术详解》终于开放预售啦! 这本书不仅满足了很多年轻人的学习欲望,并且与实际开发相结合,能够解决工作中真实遇到的问题。预售期间优惠多多,实在不容错过! Unity 3D实战核心技术详解 ...

    陈晓猛 2016-12-05
    3485 36 0 1
  • czk 2017-07-29
    6352 28 0 1