刻期起,GLM-4.7-Flash将替代GLM-4.5-Flash,在智谱开放平台BigModel.cn上线,并供免费调用。

API接入

  • 体验中间:https://bigmodel.cn/trialcenter/modeltrial/text?modelCode=glm-4.7-flash

  • 应用指南:https://docs.bigmodel.cn/cn/guide/models/free/glm-4.7-flash

  • 接口文档:https://docs.bigmodel.cn/api-reference/模型-api/对话补全

  • 上一代免费说话模型GLM-4.5-Flash将于2026年1月30日下线,请您及时将模型编码更新为最新版本。GLM-4.5-Flash正式下线后,相干请求将会主动路由至GLM-4.7-Flash。

开源安排

  • Hugging Face:https://huggingface.co/zai-org/GLM-4.7-Flash
  • 魔搭社区:https://modelscope.cn/models/ZhipuAI/GLM-4.7-Flash

据介绍,在SWE-bench Verified、τ²-Bench等主流基准测试中,GLM-4.7-Flash的综合表示跨越gpt-oss-20b、Qwen3-30B-A3B-Thinking-2507,在雷同和近似尺寸模型系列中取得开源SOTA分数。

智谱正式宣布并开源GLM-4.7-Flash,这是一个混淆思虑模型,总参数量为30B,激活参数量为3B,作为同级别SOTA模型,为轻量化安排供给了一个兼顾机能与效力的新选择。

在内部的编程实测中,GLM-4.7-Flash在前、后端义务上表示出色。在编程场景之外,官方也推荐大年夜家在中文写作、翻译、长文本、情感/角色扮演等通用处景中体验GLM-4.7-Flash。

点赞(0) 打赏

评论列表 共有 0 条评论

暂无评论

微信小程序

微信扫一扫体验

立即
投稿

微信公众账号

微信扫一扫加关注

发表
评论
返回
顶部