刻期起登录官网或官方App,即可与最新的DeepSeek-V4对话,摸索1M超长高低文记忆的全新体验。API办事已同步更新,经由过程修改model_name为deepseek-v4-pro或deepseek-v4-flash即可调用。


据介绍,DeepSeek-V4开创了一种全新的留意力机制,在token维度进行紧缩,结合DSA稀少留意力(DeepSeek Sparse Attention),实现了全球领先的长高低文才能,并且比拟于传统办法大年夜幅降低了对计算和显存的需求。从如今开端,1M(一百万)高低文将是DeepSeek所有官方办事的标配。
V4-Pro与V4-Flash最大年夜高低文长度为1M,均同时支撑非思虑模式与思虑模式,个中思虑模式支撑reasoning_effort 参数设置思虑强度(high/max)。对于复杂的Agent场景建议应用思虑模式,并设置强度为 max。
比拟前代模型,DeepSeek-V4-Pro的Agent才能明显加强。在Agentic Coding评测中,V4-Pro 已达到当前开源模型最佳程度,并在其他Agent相干评测中同样表示优良。今朝DeepSeek-V4已成为公司内部员工应用的Agentic Coding模型,据评测反馈应用体验优于Sonnet 4.5,交付质量接近Opus 4.6非思虑模式,但仍与Opus 4.6思虑模式存在必定差距。
今朝,DeepSeek API已同步上线V4-Pro与V4-Flash,支撑OpenAI ChatCompletions接口与Anthropic接口。拜访新模型时,base_url不变,model参数须要改为 deepseek-v4-pro或 deepseek-v4-flash。

发表评论 取消回复