
五一前的这两天,大年夜模型又进入新一轮宣布潮。
4 月 23 日正午,「天才少年」姚顺雨交出参加腾讯后的第一份模型答卷,腾讯混元 Hy3 预览版表态,2950 亿参数的 MoE 架构,激活参数 21B,推理效力晋升 40%,输入价格压到 1.2 元/百万 tokens。
今天凌晨,OpenAI 面向付费用户上线 GPT-5.5 并官宣 API 筹划,主打 Agent 工作流和多步调义务完成,高低文窗口拉到 100 万 tokens,API 订价也水涨船高——输入 5 美元、输出 30 美元/百万 tokens。
外面上,三家路径各不雷同:OpenAI 走高端闭源路线,持续举高价格天花板;腾讯把模型塞进自家生态,用性价比撬动范围化商用;DeepSeek 则延续开源传统,同时把高低文长度推到一个新的普惠临界点。
同时,Agent 才能、超长高低文、代码与对象调用,这三个关键词,在三家宣布的新模型里反复出现。他们都在同一个偏向上加注:让模型能处理更长的信息,能在更复杂的义务链条里自立运作,能真正嵌入到工作流程中去「干活」。
01
DeepSeek V4 的「实用主义」
DeepSeek 此次宣布,把百万字高低文从「高端选配」变成了「基本标配」。
在此之前,1M 级其余高低文长度,更多涌如今旗舰闭源模型的高端版本里,昂扬的调用成本足,以让大年夜多半开辟者和中小企业望而却步。
而 DeepSeek 的做法十分明白:V4-Pro 和 V4-Flash 两个版本全系标配 1M 高低文长度,前者锚定极致机能,后者供给普惠经济之选,完全覆盖不合需求层级的用户。这种「无差别下放核心才能」的策略,本质上是在彻底降低长文本处理才能的行业获取门槛。
Flash 版本主打极致低延迟与高性价比,是 DeepSeek 面向轻量化高频场景给出的核心筹划。凭借 13B 的激活参数、全新的 token 紧缩留意力机制与 DSA 稀少留意力架构优化,它在保障接近 Pro 版核心推理才能的同时,实现了极快的响应速度,对于及时对话交互、函数调用流水线,甚至所有对响应速度敏感的轻量化场景而言,这一特点能带来体验上的本质晋升。
更关键的是具有竞争力的成本构造。
根据 DeepSeek 官方 API 订价文档,Flash 版本采取阶梯式计费规矩:缓存射中的输入 token 低至 0.2 元 / 百万 tokens,缓存未射中的输入 token 为 1 元 / 百万 tokens,输出 token 订价为 2 元 / 百万 tokens。

订价方面,Pro 版本同样延续了高性价比路线,官方订价为:缓存射中的输入 token1 元 / 百万 tokens,缓存未射中的输入 token12 元 / 百万 tokens,输出 token 订价 24 元 / 百万 tokens,明显低于海外同级别旗舰闭源模型。
DeepSeek V4 各个版本成为|图片来源:DeepSeek API 文档
如斯亲平易近的订价,叠加全系标配的 1M 高低文才能,使得「单次调用成本」不再是工程设计中的核心束缚——开辟者可以优先推敲产品体验与架构设计,而无需反复在调用次数与费用之间做衡量。
Flash 解决的是「用得起、用得快」的普惠需求,V4-Pro 则在答复另一个核心问题:开源大年夜模型的才能界线,毕竟还能被推到哪里。
最直不雅的才能跃升,依然环绕长高低文展开。DeepSeek 将模型高低文长度从上一代 V3.2 的 128K,直接拉升至 1M(一百万 token),合营底层架构的立异,在大年夜幅降低长高低文计算与显存需求的同时,保障了全高低文窗口的机能无损。
在这一范围下,开辟者可以直接导入完全代码库、超长行业文档、多轮项目档案甚至百万字级其余完全书本进行端到端处理,无需额外搭建复杂的检索加强生成(RAG)体系,大年夜幅简化了长文本处理的技巧链路。
在底层架构上,Pro 版本采取了总参数 1.6T、激活参数 49B 的 MoE 架构,预练习数据量达 33T,是对 DeepSeek 混淆专家路线的周全深化。官方评测数据显示,其在数学、STEM、比赛级代码等核心推理测评中,超出了当前所有已公开评测的开源模型,达到了比肩世界顶级闭源模型的程度。
在 Agent 才能上,其交付质量已接近 Claude Opus 4.6 非思虑模式,内部应用反馈优于 Anthropic Sonnet 4.5,成为了 DeepSeek 内部员工的主力 Agentic Coding 对象。
功能层面,V4 全系列两个版本均同时支撑非思虑模式与思虑模式,开辟者可经由过程 reasoning_effort 参数自定义思虑强度,同时全量支撑 Json Output、Tool Calls、对话前缀续写才能。
API 接入也做到了极致低门槛,开辟者无需修改原有 base_url,仅需将 model 参数调换为对应版本名称,即可完成接入,同时兼容 OpenAI ChatCompletions 与 Anthropic 两种接口格局。
这种「才能上探 + 成本下探」的组合拳,让顶级的大年夜模型才能不再是少数厂商的专属资本。当行业内卷逐渐陷入参数军备比赛的怪圈,DeepSeek 用全系标配百万高低文、全链路开源开放的选择,给大年夜模型的普惠化,给出了一个全新的范本。
同时,DeepSeek V4 针对 Claude Code、OpenClaw、OpenCode、CodeBuddy 等主流 Agent 产品做了专项适配和优化,在代码义务、文档生成等实际场景中表示均有晋升。模型的价值最终要在真实的开辟和工作流程里被考验。
持续开源,API 全量开放
02 DeepSeek 延续了开源路线,并直接全量开放 API 调用。 今朝,DeepSeek-V4 的模型权重已同步在 Hugging Face、ModelScope 平台开放下载,配套的技巧申报也一并公开,支撑开辟者进行本地安排与二次开辟。 与部分厂商「开源阉割版、闭源完全版」的行业惯例不合,本次开源的两个版本,完全保存了与官方云端 API 一致的全量才能——包含非思虑 / 思虑双模式、1M 超长高低文无损处理、Agent 专项优化与全量对象调用才能,无任何功能阉割。 这意味着,无论是中小创业公司、小我开辟者,照样科研机构,都能零门槛获取到百万高低文、顶级推理与 Agent 才能的大年夜模型底座,无需再为高端模型才能付出高额的闭源接口费用。 为了进一步降降低地门槛,DeepSeek 同步开源了模型微调、量化、推理加快的全流程对象链,完成了 vLLM、TGI 等主流推理框架,以及 LangChain、LlamaIndex 等主流 Agent 框架的 Day 0 原生适配,同时开放了国产算力平台的全栈安排筹划,闪开辟者在不合硬件情况下都能快速落地应用。 与此同时,DeepSeek 也给出了清楚的模型迭代过渡筹划:旧有的 API 接口模型名 deepseek-chat 与 deepseek-reasoner,将于三个月后(2026 年 7 月 24 日)停止应用,当前阶段,这两个模型名分别指向 deepseek-v4-flash 的非思虑模式与思虑模式,给开辟者留出了充分的腻滑迁徙时光。 03 果断做 AI「基建模型」 把这两天的宣布连起来看,一个趋势很明白:各家都在加快 Agent 才能。 以前两年,"大众,"和本钱市场对大年夜模型的存眷,很大年夜程度上集中在「聪慧程度」,但如今已经转向了「谁更能稳定地把工作做完」。GPT-5.5 的宣布重点不在于多模态懂得又晋升了若干,而是它在 Agent 编程、计算机应用、常识工作等场景中的持续履行才能。腾讯混元 Hy3 的核心卖点也在于它在实际世界中的「行动才能」。DeepSeek V4 则直接把 Agent 才能和长高低文处理作为主打,目标明白地指向实际工作负载。 这种改变的背后,是全部行业正在走向「模型效用」的竞争。如今,用户和企业客户越来越不关怀你的模型在某项评测里排第几,他们关怀的是模型及产品到底能帮本身干好若干活儿:这个模型能不克不及帮我写代码、能不克不及处理复杂文档、能不克不及在多步调义务里不掉足、能不克不及以合理的成本跑起来。 图片来源:DeepSeek 官网 在今天宣布的文末,DeepSeek 引用了《荀子》里的一句话:「不诱于誉,不恐于诽,率道而行,端然正己」,持续锚定了本身的技巧路线。放在当下的大年夜模型竞争语境下,这句话的意味很明白——不被外界的评价和噪音干扰,专注于把工作做对。

DeepSeek 以前一年多的行动,确切在践行这个逻辑:用开源开放建立全球开辟者生态影响力,用极致的性价比打破高端 AI 才能的应用壁垒,用扎实的底层架构立异解决开辟者与企业用户最真实的痛点。
图片来源:DeepSeek 官网
从 R1 推理模型的横空出世,到 V4 把长高低文才能第一次推向普惠区间,DeepSeek 一向在用一种相对「慢」的方法,做一件更难的事——把顶级模型才能,从少数人的对象,变成更多人可以直接调用的基本举措措施。

发表评论 取消回复