GLM 4.7 API

z-ai/glm-4.7

GLM-4.7是智谱推出的最新旗舰级模型,主要在两大方面实现升级:增强的编程能力与更稳定的多步骤推理与执行。该模型在执行复杂智能体任务时展现出显著提升,同时能够提供更为自然的对话体验和出色的前端美学。

模型 ID
z-ai/glm-4.7
更新日期
模型能力
文本生成、深度思考
上下文长度
128 K
模型价格(每 1000 tokens 输入)
¥ 0.0075
模型价格(每 1000 tokens 输出)
¥ 0.025
模型系列
GLM

GLM 4.7 模型介绍:

GLM-4.7,你新的编程伙伴,带来了以下特性:

  • 核心编码能力(Core Coding):与其前代 GLM-4.6 相比,GLM-4.7 在多语言代理式编码和终端类任务上带来了明显提升,包括在 SWE-bench 上达到(73.8%,+5.8%)、在 SWE-bench Multilingual 上达到(66.7%,+12.9%),以及在 Terminal Bench 2.0 上达到(41%,+16.5%)。GLM-4.7 还支持“先思考再行动”(thinking before acting),在 Claude Code、Kilo Code、Cline、Roo Code 等主流代理框架中的复杂任务上有显著改进。
  • 界面风格编码(Vibe Coding):GLM-4.7 在提高 UI 质量方面迈出了一大步。它能生成更干净、更现代的网页,并生成布局与尺寸更准确、外观更佳的幻灯片。
  • 工具使用(Tool Using):GLM-4.7 在工具使用方面取得了显著进步。在诸如 τ^2-Bench 的基准测试以及通过 BrowseComp 进行的网页浏览任务上,表现明显更好。
  • 复杂推理(Complex Reasoning):GLM-4.7 在数学和推理能力上有大幅提升,在 HLE(Humanity’s Last Exam)基准上相比 GLM-4.6 达到(42.8%,+12.4%)。

在聊天、创意写作和角色扮演等许多其他场景也能看到显著的改进。

基准测试表现。 下表给出了 GLM-4.7 与其他模型(GPT-5-High、GPT-5.1-High、Claude Sonnet 4.5、Gemini 3.0 Pro、DeepSeek-V3.2、Kimi K2 Thinking)在 17 个基准(包括 8 个推理、5 个编码和 3 个代理基准)上的更详细对比。

Benchmark GLM-4.7 GLM-4.6 Kimi K2 Thinking DeepSeek-V3.2 Gemini 3.0 Pro Claude Sonnet 4.5 GPT-5-High GPT-5.1-High
MMLU-Pro 84.3 83.2 84.6 85.0 90.1 88.2 87.5 87.0
GPQA-Diamond 85.7 81.0 84.5 82.4 91.9 83.4 85.7 88.1
HLE 24.8 17.2 23.9 25.1 37.5 13.7 26.3 25.7
HLE (w/ Tools) 42.8 30.4 44.9 40.8 45.8 32.0 35.2 42.7
AIME 2025 95.7 93.9 94.5 93.1 95.0 87.0 94.6 94.0
HMMT Feb. 2025 97.1 89.2 89.4 92.5 97.5 79.2 88.3 96.3
HMMT Nov. 2025 93.5 87.7 89.2 90.2 93.3 81.7 89.2 -
IMOAnswerBench 82.0 73.5 78.6 78.3 83.3 65.8 76.0 -
LiveCodeBench-v6 84.9 82.8 83.1 83.3 90.7 64.0 87.0 87.0
SWE-bench Verified 73.8 68.0 71.3 73.1 76.2 77.2 74.9 76.3
SWE-bench Multilingual 66.7 53.8 61.1 70.2 - 68.0 55.3 -
Terminal Bench Hard 33.3 23.6 30.6 35.4 39.0 33.3 30.5 43.0
Terminal Bench 2.0 41.0 24.5 35.7 46.4 54.2 42.8 35.2 47.6
BrowseComp 52.0 45.1 - 51.4 - 24.1 54.9 50.8
BrowseComp (w/ Context Manage) 67.5 57.5 60.2 67.6 59.2 - - -
BrowseComp-Zh 66.6 49.5 62.3 65.0 - 42.4 63.0 -
τ²-Bench 87.4 75.2 74.3 85.3 90.7 87.2 82.4 82.7

编码说明(Coding): 通向通用人工智能(AGI)的道路是漫长的,基准测试只是评估性能的一种方式。虽然这些指标提供了必要的检查点,但最重要的仍然是使用感受(how it feels)。真正的智能不仅仅是通过考试或更快地处理数据;归根结底,AGI 的成功将取决于它如何无缝地融入我们的生活——这一次是以**“编码”**为例。


GLM-4.7 在 交错思考(从 GLM-4.5 起引入的功能)的基础上进一步增强,并引入了 保留思考回合级/轮次思考(Turn-level Thinking)。通过在动作之间进行思考并在多回合中保持一致,它使复杂任务更稳定、更可控:

  • 交错思考(Interleaved Thinking):模型在每次回复和调用工具之前进行思考,改进了对指令的遵循性和生成质量。
  • 保留思考(Preserved Thinking):在编码代理场景中,模型会在多回合对话中自动保留所有思考块,复用已有的推理而不是每次从头推导。这样可以减少信息丢失和不一致,适用于长期、复杂任务。
  • 回合级思考(Turn-level Thinking):模型支持在会话中对每一回合的推理进行控制——对轻量请求可以关闭思考以降低延迟/成本,对复杂任务可以开启以提高准确性和稳定性。

API 接口地址:

https://wcode.net/api/gpt/v1/chat/completions

此 API 接口兼容 OpenAI 的接口规范,也就是可以直接使用 OpenAI 的 SDK 来调用各个模型。仅需替换以下两项配置即可:

  1. base_url 替换为 https://wcode.net/api/gpt/v1
  2. api_key 替换为从 https://wcode.net/get-apikey 获取到的 API Key

具体可参考下方的各编程语言代码示例中的 openai sdk 调用示例。

请求方法:

POST

各编程语言代码示例:

# TODO: 以下代码中的 API_KEY 需要替换,获取 API Key 入口:https://wcode.net/get-apikey
curl --request POST 'https://wcode.net/api/gpt/v1/chat/completions' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer API_KEY' \
--data '{
    "model": "z-ai/glm-4.7",
    "messages": [
        {
            "role": "user",
            "content": "你好"
        }
    ]
}'
import Foundation

let headers = [
  "Authorization": "Bearer API_KEY",     // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://wcode.net/get-apikey
  "content-type": "application/json"
]
let parameters = [
  "model": "z-ai/glm-4.7",
  "messages": [
    [
      "role": "user",
      "content": "你好"
    ]
  ]
] as [String : Any]

let postData = JSONSerialization.data(withJSONObject: parameters, options: [])

let request = NSMutableURLRequest(url: NSURL(string: "https://wcode.net/api/gpt/v1/chat/completions")! as URL,
                                        cachePolicy: .useProtocolCachePolicy,
                                    timeoutInterval: 60.0)
request.httpMethod = "POST"
request.allHTTPHeaderFields = headers
request.httpBody = postData as Data

let session = URLSession.shared
let dataTask = session.dataTask(with: request as URLRequest, completionHandler: { (data, response, error) -> Void in
  if (error != nil) {
    print(error as Any)
  } else {
    let httpResponse = response as? HTTPURLResponse
    print(httpResponse)
  }
})

dataTask.resume()
var headers = {
  'Content-Type': 'application/json',
  'Authorization': 'Bearer API_KEY'     // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://wcode.net/get-apikey
};
var request = http.Request('POST', Uri.parse('https://wcode.net/api/gpt/v1/chat/completions'));
request.body = json.encode({
  "model": "z-ai/glm-4.7",
  "messages": [
    {
      "role": "user",
      "content": "你好"
    }
  ]
});
request.headers.addAll(headers);

http.StreamedResponse response = await request.send();

if (response.statusCode == 200) {
  print(await response.stream.bytesToString());
}
else {
  print(response.reasonPhrase);
}
require 'uri'
require 'net/http'

url = URI("https://wcode.net/api/gpt/v1/chat/completions")

http = Net::HTTP.new(url.host, url.port)
http.use_ssl = true

request = Net::HTTP::Post.new(url)
request["Authorization"] = 'Bearer API_KEY'     # TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://wcode.net/get-apikey
request["content-type"] = 'application/json'
request.body = "{\"model\":\"z-ai/glm-4.7\",\"messages\":[{\"role\":\"user\",\"content\":\"你好\"}]}"

response = http.request(request)
puts response.read_body
use serde_json::json;
use reqwest;

#[tokio::main]
pub async fn main() {
  let url = "https://wcode.net/api/gpt/v1/chat/completions";

  let payload = json!({
    "model": "z-ai/glm-4.7",
    "messages": (
      json!({
        "role": "user",
        "content": "你好"
      })
    )
  });

  let mut headers = reqwest::header::HeaderMap::new();
  headers.insert("Authorization", "Bearer API_KEY".parse().unwrap());     // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://wcode.net/get-apikey
  headers.insert("content-type", "application/json".parse().unwrap());

  let client = reqwest::Client::new();
  let response = client.post(url)
    .headers(headers)
    .json(&payload)
    .send()
    .await;

  let results = response.unwrap()
    .json::<serde_json::Value>()
    .await
    .unwrap();

  dbg!(results);
}
CURL *hnd = curl_easy_init();

curl_easy_setopt(hnd, CURLOPT_CUSTOMREQUEST, "POST");
curl_easy_setopt(hnd, CURLOPT_URL, "https://wcode.net/api/gpt/v1/chat/completions");

struct curl_slist *headers = NULL;
headers = curl_slist_append(headers, "Authorization: Bearer API_KEY");    // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://wcode.net/get-apikey
headers = curl_slist_append(headers, "content-type: application/json");
curl_easy_setopt(hnd, CURLOPT_HTTPHEADER, headers);

curl_easy_setopt(hnd, CURLOPT_POSTFIELDS, "{\"model\":\"z-ai/glm-4.7\",\"messages\":[{\"role\":\"user\",\"content\":\"你好\"}]}");

CURLcode ret = curl_easy_perform(hnd);
package main

import (
  "fmt"
  "strings"
  "net/http"
  "io"
)

func main() {
  url := "https://wcode.net/api/gpt/v1/chat/completions"

  payload := strings.NewReader("{\"model\":\"z-ai/glm-4.7\",\"messages\":[{\"role\":\"user\",\"content\":\"你好\"}]}")

  req, _ := http.NewRequest("POST", url, payload)

  req.Header.Add("Authorization", "Bearer API_KEY")     // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://wcode.net/get-apikey
  req.Header.Add("content-type", "application/json")

  res, _ := http.DefaultClient.Do(req)

  defer res.Body.Close()
  body, _ := io.ReadAll(res.Body)

  fmt.Println(res)
  fmt.Println(string(body))
}
using System.Net.Http.Headers;


var client = new HttpClient();

var request = new HttpRequestMessage(HttpMethod.Post, "https://wcode.net/api/gpt/v1/chat/completions");

request.Headers.Add("Authorization", "Bearer API_KEY");     // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://wcode.net/get-apikey

request.Content = new StringContent("{\"model\":\"z-ai/glm-4.7\",\"messages\":[{\"role\":\"user\",\"content\":\"你好\"}]}", null, "application/json");

var response = await client.SendAsync(request);

response.EnsureSuccessStatusCode();

Console.WriteLine(await response.Content.ReadAsStringAsync());
var client = new RestClient("https://wcode.net/api/gpt/v1/chat/completions");

var request = new RestRequest("", Method.Post);

request.AddHeader("Authorization", "Bearer API_KEY");     // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://wcode.net/get-apikey

request.AddHeader("content-type", "application/json");

request.AddParameter("application/json", "{\"model\":\"z-ai/glm-4.7\",\"messages\":[{\"role\":\"user\",\"content\":\"你好\"}]}", ParameterType.RequestBody);

var response = client.Execute(request);
const axios = require('axios');

let data = JSON.stringify({
  "model": "z-ai/glm-4.7",
  "messages": [
    {
      "role": "user",
      "content": "你好"
    }
  ]
});

let config = {
  method: 'post',
  maxBodyLength: Infinity,
  url: 'https://wcode.net/api/gpt/v1/chat/completions',
  headers: {
    'Content-Type': 'application/json',
    'Authorization': 'Bearer API_KEY'     // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://wcode.net/get-apikey
  },
  data : data
};

axios.request(config).then((response) => {
  console.log(JSON.stringify(response.data));
}).catch((error) => {
  console.log(error);
});
OkHttpClient client = new OkHttpClient();

MediaType mediaType = MediaType.parse("application/json");

RequestBody body = RequestBody.create(mediaType, "{\"model\":\"z-ai/glm-4.7\",\"messages\":[{\"role\":\"user\",\"content\":\"你好\"}]}");

Request request = new Request.Builder()
  .url("https://wcode.net/api/gpt/v1/chat/completions")
  .post(body)
  .addHeader("Authorization", "Bearer API_KEY")             // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://wcode.net/get-apikey
  .addHeader("content-type", "application/json")
  .build();

Response response = client.newCall(request).execute();
$client = new \GuzzleHttp\Client();

$headers = [
  'Content-Type' => 'application/json',
  'Authorization' => 'Bearer API_KEY',     // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://wcode.net/get-apikey
];

$body = '{
  "model": "z-ai/glm-4.7",
  "messages": [
    {
      "role": "user",
      "content": "你好"
    }
  ]
}';

$request = new \GuzzleHttp\Psr7\Request('POST', 'https://wcode.net/api/gpt/v1/chat/completions', $headers, $body);

$response = $client->sendAsync($request)->wait();

echo $response->getBody();
$curl = curl_init();

curl_setopt_array($curl, [
  CURLOPT_URL => "https://wcode.net/api/gpt/v1/chat/completions",
  CURLOPT_RETURNTRANSFER => true,
  CURLOPT_ENCODING => "",
  CURLOPT_MAXREDIRS => 5,
  CURLOPT_TIMEOUT => 300,
  CURLOPT_CUSTOMREQUEST => "POST",
  CURLOPT_POSTFIELDS => json_encode([
    'model' => 'z-ai/glm-4.7',
    'messages' => [
      [
        'role' => 'user',
        'content' => '你好'
      ]
    ]
  ]),
  CURLOPT_HTTPHEADER => [
    "Authorization: Bearer API_KEY",     // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://wcode.net/get-apikey
    "content-type: application/json",
  ],
]);

$response = curl_exec($curl);
$error = curl_error($curl);

curl_close($curl);

if ($error) {
  echo "cURL Error #:" . $error;
} else {
  echo $response;
}
import requests
import json

url = "https://wcode.net/api/gpt/v1/chat/completions"

payload = {
  "model": "z-ai/glm-4.7",
  "messages": [
    {
      "role": "user",
      "content": "你好"
    }
  ]
}

headers = {
  "Authorization": "Bearer API_KEY",     # TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://wcode.net/get-apikey
  "content-type": "application/json"
}

response = requests.post(url, json=payload, headers=headers)

print(json.dumps(response.json(), indent=4, ensure_ascii=False))
from openai import OpenAI

client = OpenAI(
  base_url="https://wcode.net/api/gpt/v1",
  api_key="API_KEY"                             # TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://wcode.net/get-apikey
)

completion = client.chat.completions.create(
  model="z-ai/glm-4.7",
  messages=[
    {
      "role": "user",
      "content": "你好"
    }
  ]
)

print(completion.choices[0].message.content)

API 响应示例:

{
    "id": "chatcmpl-t1766480870s211r4443143765421d77e50108cb",
    "model": "z-ai/glm-4.7",
    "object": "chat.completion",
    "created": 1766480871,
    "choices": [
        {
            "logprobs": null,
            "finish_reason": "stop",
            "native_finish_reason": "stop",
            "index": 0,
            "message": {
                "role": "assistant",
                "content": "你好!我是Z.ai训练的GLM大语言模型,而非\"GLM 4.7\"版本。\n\n作为GLM系列的一员,我被设计用来理解和生成人类语言,帮助你解答问题、提供信息或进行创意思考。我可以回答各类问题,提供知识解释,协助完成文本任务,同时尊重你的隐私。\n\n有什么我能帮助你解决的问题或你想了解的内容吗?",
                "refusal": null,
                "reasoning": "嗯,用户让我介绍一下自己。看起来是想了解我的基本身份和能力。用户称呼我为“GLM 4.7”,但需要纠正一下,我实际上是GLM-4模型。\n\n用户可能对AI助手不太熟悉,所以需要用简单清晰的语言说明。首先要明确身份,然后介绍核心功能,最后保持开放态度提问。这样既能展示能力,又能引导进一步对话。\n\n考虑到用户用中文提问,应该保持中文回答。可以提到自然语言处理、知识问答等常见功能,但不必过于技术化。重点是要让用户感受到我的实用性和亲和力。\n\n用户没有提供具体场景,所以暂时不需要主动询问具体需求,只要保持开放的询问态度即可。最后加上表情符号让语气更友好一些。"
            }
        }
    ],
    "usage": {
        "prompt_tokens": 17,
        "completion_tokens": 231,
        "total_tokens": 248,
        "prompt_tokens_details": {
            "cached_tokens": 0,
            "audio_tokens": 0,
            "video_tokens": 0
        },
        "completion_tokens_details": {
            "reasoning_tokens": 267,
            "image_tokens": 0
        }
    }
}

可选参数:

重要提示:由于模型架构不同,部分参数可能仅适用于特定的模型。

温度

  • 参数:temperature

  • 可选,浮点数,0.0 到 2.0

  • 默认:1.0

此设置影响模型回复的多样性。较低的值会使回复更可预测、更常见;较高的值会鼓励更具多样性且较不常见的回复。当设置为 0 时,模型对相同输入将尽可能的给出相同的回复。

Top-P

  • 参数:top_p

  • 可选,float,0.0 至 1.0

  • 默认值:1.0

top_p 参数控制模型在生成文本时的候选词选择范围。具体来说,模型会生成一组候选 token,然后从累积概率达到或超过 p 的 token 中随机选择一个作为输出。通过这种方式,top_p 能够在保证生成内容的多样性的同时,考虑到概率分布的合理性。

由于 temperature 与 top_p 均可以控制生成文本的多样性,因此建议您只设置其中一个值。

Top-K

  • 参数:top_k

  • 可选,int,>= 0

  • 默认值:0

top_k 会限制模型在每一步对 token 的选择,使其从较小的集合中进行选择。值为 1 表示模型将始终选择最有可能的下一个 token,从而得到可预测的结果。

频率惩罚

  • 参数:frequency_penalty

  • 可选,float,-2.0 至 2.0

  • 默认值:0.0

frequency_penalty 可根据词条在输入中出现的频率来控制其重复使用。它会尝试减少那些在输入中出现频率较高的词条的使用频率,这与它们出现的频率成正比。词条惩罚会随着出现次数的增加而增加。负值将鼓励词条重复使用。

存在惩罚

  • 参数:presence_penalty

  • 可选,float,-2.0 至 2.0

  • 默认值:0.0

presence_penalty 调整模型重复输入中已使用的特定标记的频率。值越高,重复的可能性就越小,负值则相反。标记惩罚不会随着出现次数而变化。负值会鼓励标记重用。

重复惩罚

  • 参数:repetition_penalty

  • 可选,float,0.0 至 2.0

  • 默认值:1.0

repetition_penalty 有助于减少输入中标记的重复。较高的值会降低模型重复标记的可能性,但过高的值会使输出不够连贯(通常会出现缺少小词的连续句子)。标记惩罚会根据原始标记的概率进行调整。

Min-P

  • 参数:min_p

  • 可选,float,0.0 至 1.0

  • 默认值:0.0

min_p 表示某个 token 被考虑的最小概率,该概率是相对于最可能的 token 的概率而言的。如果 min_p 设置为 0.1,则意味着它只允许概率至少为最佳选项十分之一的 token 被考虑。

Top-A

  • 参数:top_a

  • 可选,float,0.0 到 1.0

  • 默认值:0.0

top_a 仅考虑概率“足够高”的 top tokens,该概率基于最可能的 token 概率。可以将其视为一个动态的 Top-P。较低的 Top-A 值会根据概率最高的 token 集中选择,但范围会更窄。较高的 Top-A 值不一定会影响输出的创造性,但会根据最大概率优化过滤过程。

种子

  • 参数:seed

  • 可选,int

如果指定了 seed 参数,推理将确定性地进行采样,即使用相同种子和参数的重复请求应该返回相同的结果。某些模型无法保证确定性。

最大 tokens 数

  • 参数:max_tokens

  • 可选,int,>= 1

max_tokens 可设定模型在响应中可以生成的 token 数量的上限。模型不会生成超过此限制的 token。其最大值等于上下文长度减去 prompt 长度。

Logit Bias

  • 参数:logit_bias

  • 可选,object

logit_bias 是一个可选参数,用于修改指定 token 在模型生成输出中出现的可能性。

对数概率

  • 参数:logprobs

  • 可选,boolean

logprobs 设置是否返回输出 token 的对数概率。如果为 true,则返回每个输出 token 的对数概率。

最高对数概率

  • 参数:top_logprobs

  • 可选,int

top_logprobs 是一个介于 0 和 20 之间的整数,指定在每个 token 位置要返回的最可能 token 的数量,每个 token 都会带有相应的对数概率。如果使用此参数,则必须将 logprobs 设置为 true

响应格式

  • 参数:response_format

  • 可选,object

response_format 强制模型产出特定的输出格式。将其设置为 { "type": "json_object" } 可启用 JSON 模式,保证模型生成的消息为有效的 JSON。

注意:使用 JSON 模式时,应同时通过 system 或 user 提示词指示模型生成 JSON。

结构化输出

  • 参数:structured_outputs

  • 可选,boolean

指示模型是否能够使用 response_format 中的 json_schema 返回结构化输出。

停止

  • 参数:stop

  • 可选,array

如果模型遇到 stop 数组中指定的任意 token,则立即停止生成。

工具

  • 参数:tools

  • 可选,array

工具调用参数,遵循 OpenAI 的工具调用请求格式。对于非 OpenAI 提供者,会相应地进行转换。

工具选择

  • 参数:tool_choice

  • 可选,array

控制模型调用哪个工具。'none' 表示模型不会调用任何工具,而是生成一条消息。'auto' 表示模型可以在生成消息或调用一个或多个工具之间进行选择。'required' 表示模型必须调用一个或多个工具。通过 {"type": "function", "function": {"name": "my_function"}} 指定特定工具会强制模型调用该工具。

并行工具调用

  • 参数:parallel_tool_calls

  • 可选,boolean

  • 默认:true

是否在使用工具时启用并行函数调用。如果为 true,模型可以同时调用多个函数。如果为 false,函数将按顺序依次调用。

冗长程度

  • 参数:verbosity

  • 可选,enumlow medium high

  • 默认:medium

控制模型响应的冗长程度和长度。较低的值会生成更简洁的回答,而较高的值会生成更详细、更全面的回答。


以上文档为标准版 API 接口文档,可直接用于项目开发和系统调用。如果标准版 API 接口无法满足您的需求,需要定制开发 API 接口,请联系我们的 IT 技术支持工程师:

(沟通需求✅ → 确认技术方案✅ → 沟通费用与工期✅ → 开发&测试✅ → 验收交付✅ → 维护升级✅)

最受关注模型

DeepSeek V3.2

文本生成

GLM 4.6

文本生成、深度思考

Kimi K2 Thinking

文本生成、深度思考

Qwen3 VL 30B A3B Instruct

图片识别

MiniMax M2

文本生成、深度思考

DeepSeek V3.2 Exp

文本生成

Qwen3 VL 8B Instruct

图片识别

Qwen3 VL 235B A22B Instruct

图片识别

Qwen3 VL 30B A3B Thinking

图片识别、深度思考

Baidu ERNIE 4.5 21B A3B Thinking

文本生成、深度思考

最新发布模型

GLM 4.7

文本生成、深度思考

MiniMax M2.1

文本生成、深度思考

GLM 4.6V

图片识别、深度思考

DeepSeek V3.2

文本生成

DeepSeek V3.2 Speciale

文本生成、深度思考

Kimi K2 Thinking

文本生成、深度思考

MiniMax M2

文本生成、深度思考

Qwen3 VL 8B Instruct

图片识别

Baidu ERNIE 4.5 21B A3B Thinking

文本生成、深度思考

Qwen3 VL 30B A3B Instruct

图片识别