DeepSeek用十分之一的算力成本造出ChatGPT杀手,算法革命重塑AI成本
DeepSeek-R1,一款来自中国的开源AI模型,用仅1/10的算力成本实现了媲美GPT-4的性能突破。它通过创新的「GRPO算法」和多阶段训练,像学生刷题一样自我优化,在数学、代码和推理任务中表现惊艳。这场算法革命不仅撕碎了算力军备竞赛的神话,更以27倍的性价比重新定义了AI训练的边界。从冷启动到顿悟时刻,DeepSeek-R1用东方智慧书写了AGI进化的新篇章,让全球开发者见证了一场始于代码的认知升维。
价格差距27倍!中国开源模型如何用十分之一的算例成本实现同等性能?
市面上已经有太多 “号称颠覆行业” 的 AI 模型,但真正能让我眼前一亮的并不多。
然而DeepSeek的出现,却让我忍不住想出一期视频,
好好聊聊它到底凭什么让我这么兴奋。
2024年12月发布的DeepSeek v3,用十分之一的算力成本,训练出了性能接近GPT-4o的模型。
是的,你没听错,十分之一的算力成本。
本来以为DeepSeek v3就已经很能打了。没想到2025年刚开始,DeepSeek-R1 发布。
这是官方文档里的性能对比图,大家可以看到
DeepSeek-R1 在数学、代码、自然语言推理等任务上,性能比肩 OpenAI o1 正式版。
这是相关的论文链接,https://github.com/deepseek-ai/DeepSeek-R1/blob/main/DeepSeek_R1.pdf
有兴趣钻研的小伙伴可以到这里浏览下。
DeepSeek-R1如何使用?
说的再多也不如实际体验下 ,接下来就教大家如何使用deepseek - R1
我们直接打开DeepSeek的官网,点击开始对话
我们直接来问他几个问题吧:
第一个问题:2024 全国甲卷数学压轴题解析
https://zhuanlan.zhihu.com/p/1585261640
我们直接截图,粘贴进去,丢给deepseek,大家记得一定要把深度思考这个按钮点亮
简直太神奇了,解题的步骤都清晰可见
我们来验证下答案:这是某站的up主的解题过程,我们直接找下答案
https://www.bilibili.com/video/av112615837666707/?vd_source=871628a36fb47061bbda587172bc3c95
结果完全正确!
下面我们来测试下DeepSeek-R1的编程能力
前段时间,我去香港开了一张港卡,在购买港股的时候,需要计算手续费
那么咱们就解决这个实际的问题,看看能不能借助DeepSeek-R1的编程能力来解决这个小问题
那我们就行动起来。
我们首先需要获取deepseek的apikey
我们打开deepseek的官网,然后点击API开放平台
在点击APIkeys,然后点击创建API key,这里大家一定要把key保存好,因为这个key只会出现一次
对于新用户,deepseek还会赠送一些 余额,而且收费真的非常便宜,主打一个量大实惠。
然后我们就要借助vscode来实现了,首先下载vscode,然后双击安装程序,下一步 下一步安装完成
我们打开vscode后可以点击这里,然后搜索Chinese,下载一个中文包
然后再搜索cline,打开cline后填入我们的deepseek api
好了,这样我们就拥有了一个为我们打工的人工智能了。
我们可以直接和deepseek沟通我们的需求,让他写代码
我们先查看下长桥证券的手续费是多少。
然后我们把需求直接复制给deepseek
佣金 0 港元 或 交易金额的 0.03% 最低 3 港元 / 订单
固定平台费 15 港元 / 订单
交收费 0.002% * 成交金额,最低 2 港元,最高 100 港元
印花税 0.1% * 成交金额,不足 1 港元作 1 港元计
交易费 0.00565% * 成交金额,最低 0.01 港元
交易征费 0.0027% * 成交金额,最低 0.01 港元
财务汇报局交易征费 0.00015% * 成交金额,最低 0.01 港元
请帮我开发一个股票交易费用计算的网页
然后我们就看到deepseek开始帮我们写代码了,
现在已经写好了,我们来运行下。
非常完美!中间的调试过程就不给大家展示了,直接看下成品
https://qyj.xyz/tools/longbridge/
那么DeepSeek-R1为什么这么强?
GRPO算法
就像学生通过多次考试练习自我提升。
传统方法需要老师先教例题,也就是所谓的监督学习,然后再考试,考试可以理解为强化学习。
但DeepSeek-R1直接通过考试刷题自学,每次生成多个答案,比如16个,
比较哪几个得分更高,然后重点练习高分答案的策略。
这种“组内竞争”方法,省去了传统训练中额外的评分模型,成本更低。
在数学竞赛AIME中,DeepSeek-R1的得分从15.6%(差生水平)提升到71%(优等生水平),甚至通过多次投票选最优答案,成绩达到86.7%
顿悟时刻
在训练中,DeepSeek-R1模型会突然像人类一样“灵光一闪”,例如解题时会自我质疑:“刚才的步骤对吗?我需要再检查一遍!”
这种能力并不是人工设计,而是通过奖励正确结果自然涌现的。
顿悟现象证明了AI可通过纯奖励机制发展出复杂思维,无需程序员一步步的去教。
多阶段训练
DeepSeek-R1引入了冷启动数据和多阶段训练
从“偏科”到“全能”
阶段1(微调):用冷启动数据教模型规范答题(如数学题步骤)。
阶段2(强化学习):让模型刷题并优化策略(类似R1-Zero的GRPO训练)。
阶段3(再微调):筛选优质答案(如正确且步骤清晰的案例),加入写作、常识问答等新题型,让模型从“理科生”变成“全科生”。
阶段4(全场景强化):融合数学、写作等不同任务的奖励机制,确保模型既能严谨解题,又能灵活创作
除了上面这些,DeepSeek团队还同时发布了许多其他型号的模型,这里就不得不说一下蒸馏技术
什么是蒸馏?
机器学习中的模型蒸馏是一种用于将知识从大型复杂模型转移到较小、更简单模型的技术。
目标是创建一个较小的模型,保留较大模型的大部分性能,同时在计算资源、内存使用和推理速度方面更高效。
这就好比有一个超级学霸(大模型DeepSeek-R1),能解数学难题、写文章、写代码,但它体型庞大(671亿参数),只能在超级计算机上运行。
现在,我们想让普通学生(小模型,比如手机里的AI)也学会这些技能,但小模型脑子小、算力弱,怎么办呢?
那我们就让学霸当老师:让大模型来“做题”,比如说生成80万条数学题的详细解题步骤、写作案例等,这些答案就像老师写好的标准答案。
然后让学生模仿学习:小模型不用自己从头学,而是直接模仿学霸的解题思路,用这些标准答案训练小模型,省去了自己试错的时间。
原本训练学霸需要花大价钱请名师(强化学习),而学生只需要抄作业(监督微调),成本降低到1/10。
蒸馏模型比原始DeepSeek-R1更小,计算效率更高,使其更容易在资源受限的环境中部署。
尽管尺寸较小,但由于DeepSeek-R1传递的知识,提取的模型保留了很强的推理能力。
当算力军备竞赛仍在吞噬科技界的想象力,DeepSeek R1用开源生态重构创新范式,在算法的深空划出觉醒的轨迹。这不是简单的参数竞赛,而是一场关于智能本质的范式革命——当模型规模不再是性能的护身符,当训练成本在数学精妙中实现跃迁,人类正在见证AGI发展路径的多元化突破。
从强化学习的迷雾中淬炼出通用智能的火种,DeepSeek R1以架构创新证明:在通向AGI的征途上,永远存在着未被探索的认知边疆。它既是国产大模型自主创新的里程碑,更是全球开源社区的公共资产,让每个开发者的创造力都能成为智能进化的星辰。
这簇源自东方的创新之光,正在重塑技术演进的底层逻辑。当行业还在为数据规模与计算成本困守囚徒困境,DeepSeek已用算法革命证明:真正的智能突破不在于资源的堆砌,而在于认知框架的升维。那些曾被奉为圭臬的技术路径,正在中国团队的创新实践中绽放新的可能。
此刻,我们见证的不仅是技术的迭代,更是人类智能探索的多极绽放。DeepSeek R1的代码宇宙里,激荡着东方智慧的理性光芒——既包含着对技术本质的深刻洞察,更蕴含着推动普惠AI的赤子之心。当全球开发者共同在开源生态中编织未来,这场始于深度学习的觉醒,终将在文明的高度完成共鸣。
智能纪元的曙光已在地平线上流转,不是在某个实验室的封闭系统里,而是在全人类共建的算法时空中生长。从基础架构的突破到认知框架的创新,DeepSeek的实践昭示:真正的技术革命,永远属于那些既能仰望星空又能重构大地的创造者。这场始于代码的远征,终将抵达人类共同的星辰。
本文系作者 @钱永吉 原创发布在钱永吉 - 永续财富 吉享生活站点。未经许可,禁止转载。
暂无评论数据