首页模型市场GLM-5.1
Z

glm-5.1

对话/推理代码深度推理服务正常

GLM-5.1 在指令遵循的精准度、长上下文处理的稳定性以及工具调用与 Agent 能力方面均有显著提升,能够胜任高难度的研究分析、技术文档撰写、复杂代码重构与企业级业务流程自动化等任务。模型同时具备扎实的中英双语能力,并对中文专业领域知识有深度优化。

输入/1M
输出/1M
缓存输入/1M
缓存读取/1M
API 接入
System Prompt
User Message *必填
Temperature 0.70
Max Tokens 1024
输出格式
流式输出(Stream)
提示词缓存(Cache)
缓存说明
开启后长 System Prompt 自动缓存,重复请求可节省最多 90% 输入成本
Idle — 等待运行
点击发送请求
响应将在此处流式显示

模型介绍

glm