千问系列
名字带有参数量的一般来说为开源模型
模型名称 | 输入模态 | 输出模态 | 深度思考 | 函数调用 | 结构化输出 | 最大输入 | 最大输出 | 上下文长度 | 思维链长度 |
|---|
qwen3.6-plus | 文本/图像/视频 | 文本 | √ | √ | √ | 991K | 64K | 1M | 80K |
qwen3.6-max-preview | 文本 | 文本 | √ | √ | √ | 240K | 64K | 256K | 128K |
qwen3.6-flash | 文本/图像/视频 | 文本 | √ | √ | √ | 991K | 64K | 1M | 128K |
qwen3.6-35b-a3b | 文本/图像/视频 | 文本 | √ | √ | √ | 254K | 64K | 256K | 128K |
qwen3.6-27b | 文本/图像/视频 | 文本 | √ | √ | √ | 254K | 64K | 256K | - |
qwen3.5-plus | 文本/图像/视频 | 文本 | √ | √ | √ | 991K | 64K | 1M | 80K |
qwen3.5-flash | 文本/图像/视频 | 文本 | √ | √ | √ | 991K | 64K | 1M | 80K |
qwen3.5-35b-a3b | 文本/图像/视频 | 文本 | √ | √ | √ | 254K | 64K | 256K | 80K |
qwen3.5-27b | 文本/图像/视频 | 文本 | √ | √ | √ | 254K | 64K | 256K | 80K |
qwen3.5-122b-a10b | 文本/图像/视频 | 文本 | √ | √ | √ | 254K | 64K | 256K | 80K |
qwen3.5-397b-a17b | 文本/图像/视频 | 文本 | √ | √ | √ | 254K | 64K | 256K | 80K |
qwen3-max | 文本 | 文本 | √ | √ | √ | 254K | 64K | 256K | 80K |
qwen3-next-80b-a3b-instruct | 文本 | 文本 | × | × | × | 126K | 32K | 128K | - |
qwen3-vl-32b-instruct | 文本/图像/视频 | 文本 | × | √ | √ | 126K | 32K | 128K | - |
qwen3-vl-30b-a3b-thinking | 文本/图像/视频 | 文本 | √ | √ | √ | 124K | 32K | 128K | - |
qwen3-vl-30b-a3b-instruct | 文本/图像/视频 | 文本 | × | √ | √ | 126K | 32K | 128K | - |
qwen3-vl-235b-a22b-thinking | 文本/图像/视频 | 文本 | √ | √ | √ | 124K | 32K | 128K | 80K |
qwen3-vl-235b-a22b-instruct | 文本/图像/视频 | 文本 | × | √ | √ | 126K | 32K | 128K | - |
qwen2.5-vl-32b-instruct | 文本/图像 | 文本 | × | × | × | 126K | 8K | 128K | - |
qwen2.5-vl-72b-instruct | 文本/图像 | 文本 | × | × | × | 126K | 8K | 128K | - |
Deepseek系列
模型名称 | 输入模态 | 输出模态 | 深度思考 | 函数调用 | 结构化输出 | 最大输入 | 最大输出 | 上下文长度 | 思维链长度 | 总参 | 激活 |
|---|
deepseek-v4-pro | 文本 | 文本 | √ | √ | × | 1M | 384K | 1M | - | 1.6T | 49B |
deepseek-v4-flash | 文本 | 文本 | √ | √ | × | 1M | 384K | 1M | - | 284B | 13B |
deepseek-v3.2 | 文本 | 文本 | √ | √ | × | 96K | 64K | 128K | - | - | - |
deepseek-v3.1 | 文本 | 文本 | √ | √ | × | 96K | 64K | 128K | - | - | - |
deepseek-r1-0528 | 文本 | 文本 | √ | √ | × | 96K | 16K | 128K | - | - | - |
GLM系列
GLM-5.1是智谱AI推出的面向长程任务(Long Horizon Task)设计的模型,总参数744B,支持200K超长上下文,最大输出 128K tokens。拥有强大逻辑推理、长文本理解与代码生成能力、兼顾性能与推理效率;
GLM-5.0是面向Coding与Agent场景的新一代大模型,在复杂系统工程与长程任务中达到开源 SOTA,真实编程体验逼近 Claude Opus 级别;
GLM-4.7具备更强的编程能力与更稳定的多步骤推理/执行能力。总参数355B,支持长程任务规划、编码、工具协同,问答自然、写作沉浸、创意角色扮演能力强。
GLM-4.6新一代旗舰模型,核心能力较4.5全面提升。总参数量为3550亿,激活参数320亿,上下文窗口扩展至200K。
GLM-4.5采用混合专家(MoE)架构,总参数量为3550亿,激活参数320亿,在复杂推理、代码生成及智能体交互等通用能力上实现了能力融合与技术突破。
GLM-4.5-AIR采用混合专家(MoE)架构,总参数量为1060亿,激活参数120亿,相较GLM-4.5更紧凑、轻量,适用于对模型规模和资源消耗有一定限制的场景。
模型名称 | 输入模态 | 输出模态 | 深度思考 | 函数调用 | 结构化输出 | 最大输入 | 最大输出 | 上下文长度 | 思维链长度 |
|---|
glm-5.1 | 文本 | 文本 | √ | √ | × | 202K | 128K | 202K | - |
glm-5.0 | 文本 | 文本 | √ | √ | × | 166K | 16K | 198K | 32K |
glm-4.7 | 文本 | 文本 | √ | √ | × | 166K | 16K | 198K | - |
glm-4.6 | 文本 | 文本 | √ | × | × | 166K | 16K | 198K | 32K |
glm-4.5 | 文本 | 文本 | √ | × | × | 96K | 16K | 128K | - |
glm-4.5-air | 文本 | 文本 | √ | × | × | 96K | 16K | 128K | - |
MiniMax系列
M2.7 能够自行构建复杂Agent Harness,并基于 AgentTeams、复杂Skills、ToolSearch tool等能力,完成高度复杂的生产力任务。
模型名称 | 输入模态 | 输出模态 | 深度思考 | 函数调用 | 结构化输出 | 最大输入 | 最大输出 | 上下文长度 | 思维链长度 |
|---|
MiniMax/MiniMax-M2.7 | 文本 | 文本 | √ | √ | × | 200K | 128K | 200K | 128K |
MiniMax/MiniMax-M2.5 | 文本 | 文本 | √ | √ | × | 200K | 128K | 200K | 128K |
月之暗面系列
模型名称 | 输入模态 | 输出模态 | 深度思考 | 函数调用 | 结构化输出 | 最大输入 | 最大输出 | 上下文长度 | 思维链长度 |
|---|
kimi-k2.6 | 文本/图像/视频 | 文本 | √ | √ | × | 224K | 16K | 256K | 128K |
kimi-k2.5 | 文本/图像/视频 | 文本 | √ | √ | × | 224K | 16K | 256K | 128K |
kimi-k2-thinking | 文本/图像/视频 | 文本 | √ | √ | × | 224K | 16K | 256K | 128K |