概览

GLM-4-Long 是一款专为处理超长文本和记忆型任务而设计的语言模型,支持 1M 超长输入(150-200万字)。

价格

1 元 / 百万Tokens

输入模态

文本

输出模态

文本

上下文窗口

1M

最大输出Tokens

4K

推荐场景

使用资源

体验中心:快速测试模型在业务场景上的效果
接口文档:API调用方式

详细介绍

1

超长文本处理能力

支持高达1M(约150-200万字)的上下文长度,相当于2本《红楼梦》或125篇论文,在超长文本处理方面的有十分强大的能力。
2

推理能力

不仅能够阅读和翻译长篇文档,还能够进行全局分析,例如分析财务报告和提取关键信息、合同条款和科研数据。GLM-4-Long 已经具备一定的推理和记忆能力,能够理解和回应复杂的查询,创建具有超长记忆的聊天机器人。
3

技术关键点

在继续预训练(Continue Pre-Training)、监督微调(SFT)和基于人类反馈的强化学习(RLHF)阶段,进行混合训练逐步扩展上下文长度,从最初的2K上下文支持发展到1M上下文支持。

调用示例

以下是一个完整的调用示例,帮助您快速上手 GLM-4-Long 模型。
安装 SDK
# 安装最新版本
pip install zai-sdk
# 或指定版本
pip install zai-sdk==0.0.1
验证安装
import zai
print(zai.__version__)
调用示例
from zai import ZhipuAiClient

# 初始化客户端
client = ZhipuAiClient(api_key="your-api-key")

# 创建聊天完成请求
response = client.chat.completions.create(
    model="glm-4-long",
    messages=[
        {"role": "user", "content": "请分析这份长篇技术文档的核心要点和技术架构...[此处可以输入非常长的文档内容]"}
    ]
)

# 获取回复
print(response.choices[0].message.content)

用户并发权益

API调用会受到速率限制,当前我们限制的维度是请求并发数量(在途请求任务数量)。不同等级的用户并发保障如下。
V0V1V2V3
10304050