GLM 4.7 Flash API

z-ai/glm-4.7-flash

作为具备300亿参数规模的先进模型,GLM-4.7-Flash在性能与效率之间实现了新的平衡。该模型进一步针对智能编程场景进行优化,增强了代码生成、长程任务规划及工具协作能力,在多项主流公开基准测试中均取得同规模开源模型的领先表现,为追求高效能计算的应用提供了卓越选择。

模型 ID
z-ai/glm-4.7-flash
模型系列
GLM
更新日期
模型能力
文本生成、深度思考
上下文长度
195 K
模型价格(每 1000 tokens 输入)
¥ 0.00125
模型价格(每 1000 tokens 输出)
¥ 0.0055

GLM 4.7 Flash 模型介绍:

GLM-4.7-Flash 是一个 30B-A3B 的专家混合(MoE)模型。作为 30B 级别中最强的模型,GLM-4.7-Flash 为在性能与效率之间取得平衡的轻量化部署提供了新的选择。

基准测试表现:

基准测试 GLM-4.7-Flash Qwen3-30B-A3B-Thinking-2507 GPT-OSS-20B
AIME 25 91.6 85.0 91.7
GPQA 75.2 73.4 71.5
LCB v6 64.0 66.0 61.0
HLE 14.4 9.8 10.9
SWE-bench Verified 59.2 22.0 34.0
τ²-Bench 79.5 49.0 47.7
BrowseComp 42.8 2.29 28.3

API 接口地址:

https://wcode.net/api/gpt/v1/chat/completions

此 API 接口兼容 OpenAI 的接口规范,也就是可以直接使用 OpenAI 的 SDK 来调用各个模型。仅需替换以下两项配置即可:

  1. base_url 替换为 https://wcode.net/api/gpt/v1
  2. api_key 替换为从 https://wcode.net/get-apikey 获取到的 API Key

具体可参考下方的各编程语言代码示例中的 openai sdk 调用示例。

请求方法:

POST

各编程语言代码示例:

# TODO: 以下代码中的 API_KEY 需要替换,获取 API Key 入口:https://wcode.net/get-apikey
curl --request POST 'https://wcode.net/api/gpt/v1/chat/completions' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer API_KEY' \
--data '{
    "model": "z-ai/glm-4.7-flash",
    "messages": [
        {
            "role": "user",
            "content": "你好"
        }
    ]
}'
import Foundation

let headers = [
  "Authorization": "Bearer API_KEY",     // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://wcode.net/get-apikey
  "content-type": "application/json"
]
let parameters = [
  "model": "z-ai/glm-4.7-flash",
  "messages": [
    [
      "role": "user",
      "content": "你好"
    ]
  ]
] as [String : Any]

let postData = JSONSerialization.data(withJSONObject: parameters, options: [])

let request = NSMutableURLRequest(url: NSURL(string: "https://wcode.net/api/gpt/v1/chat/completions")! as URL,
                                        cachePolicy: .useProtocolCachePolicy,
                                    timeoutInterval: 60.0)
request.httpMethod = "POST"
request.allHTTPHeaderFields = headers
request.httpBody = postData as Data

let session = URLSession.shared
let dataTask = session.dataTask(with: request as URLRequest, completionHandler: { (data, response, error) -> Void in
  if (error != nil) {
    print(error as Any)
  } else {
    let httpResponse = response as? HTTPURLResponse
    print(httpResponse)
  }
})

dataTask.resume()
var headers = {
  'Content-Type': 'application/json',
  'Authorization': 'Bearer API_KEY'     // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://wcode.net/get-apikey
};
var request = http.Request('POST', Uri.parse('https://wcode.net/api/gpt/v1/chat/completions'));
request.body = json.encode({
  "model": "z-ai/glm-4.7-flash",
  "messages": [
    {
      "role": "user",
      "content": "你好"
    }
  ]
});
request.headers.addAll(headers);

http.StreamedResponse response = await request.send();

if (response.statusCode == 200) {
  print(await response.stream.bytesToString());
}
else {
  print(response.reasonPhrase);
}
require 'uri'
require 'net/http'

url = URI("https://wcode.net/api/gpt/v1/chat/completions")

http = Net::HTTP.new(url.host, url.port)
http.use_ssl = true

request = Net::HTTP::Post.new(url)
request["Authorization"] = 'Bearer API_KEY'     # TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://wcode.net/get-apikey
request["content-type"] = 'application/json'
request.body = "{\"model\":\"z-ai/glm-4.7-flash\",\"messages\":[{\"role\":\"user\",\"content\":\"你好\"}]}"

response = http.request(request)
puts response.read_body
use serde_json::json;
use reqwest;

#[tokio::main]
pub async fn main() {
  let url = "https://wcode.net/api/gpt/v1/chat/completions";

  let payload = json!({
    "model": "z-ai/glm-4.7-flash",
    "messages": (
      json!({
        "role": "user",
        "content": "你好"
      })
    )
  });

  let mut headers = reqwest::header::HeaderMap::new();
  headers.insert("Authorization", "Bearer API_KEY".parse().unwrap());     // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://wcode.net/get-apikey
  headers.insert("content-type", "application/json".parse().unwrap());

  let client = reqwest::Client::new();
  let response = client.post(url)
    .headers(headers)
    .json(&payload)
    .send()
    .await;

  let results = response.unwrap()
    .json::<serde_json::Value>()
    .await
    .unwrap();

  dbg!(results);
}
CURL *hnd = curl_easy_init();

curl_easy_setopt(hnd, CURLOPT_CUSTOMREQUEST, "POST");
curl_easy_setopt(hnd, CURLOPT_URL, "https://wcode.net/api/gpt/v1/chat/completions");

struct curl_slist *headers = NULL;
headers = curl_slist_append(headers, "Authorization: Bearer API_KEY");    // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://wcode.net/get-apikey
headers = curl_slist_append(headers, "content-type: application/json");
curl_easy_setopt(hnd, CURLOPT_HTTPHEADER, headers);

curl_easy_setopt(hnd, CURLOPT_POSTFIELDS, "{\"model\":\"z-ai/glm-4.7-flash\",\"messages\":[{\"role\":\"user\",\"content\":\"你好\"}]}");

CURLcode ret = curl_easy_perform(hnd);
package main

import (
  "fmt"
  "strings"
  "net/http"
  "io"
)

func main() {
  url := "https://wcode.net/api/gpt/v1/chat/completions"

  payload := strings.NewReader("{\"model\":\"z-ai/glm-4.7-flash\",\"messages\":[{\"role\":\"user\",\"content\":\"你好\"}]}")

  req, _ := http.NewRequest("POST", url, payload)

  req.Header.Add("Authorization", "Bearer API_KEY")     // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://wcode.net/get-apikey
  req.Header.Add("content-type", "application/json")

  res, _ := http.DefaultClient.Do(req)

  defer res.Body.Close()
  body, _ := io.ReadAll(res.Body)

  fmt.Println(res)
  fmt.Println(string(body))
}
using System.Net.Http.Headers;


var client = new HttpClient();

var request = new HttpRequestMessage(HttpMethod.Post, "https://wcode.net/api/gpt/v1/chat/completions");

request.Headers.Add("Authorization", "Bearer API_KEY");     // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://wcode.net/get-apikey

request.Content = new StringContent("{\"model\":\"z-ai/glm-4.7-flash\",\"messages\":[{\"role\":\"user\",\"content\":\"你好\"}]}", null, "application/json");

var response = await client.SendAsync(request);

response.EnsureSuccessStatusCode();

Console.WriteLine(await response.Content.ReadAsStringAsync());
var client = new RestClient("https://wcode.net/api/gpt/v1/chat/completions");

var request = new RestRequest("", Method.Post);

request.AddHeader("Authorization", "Bearer API_KEY");     // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://wcode.net/get-apikey

request.AddHeader("content-type", "application/json");

request.AddParameter("application/json", "{\"model\":\"z-ai/glm-4.7-flash\",\"messages\":[{\"role\":\"user\",\"content\":\"你好\"}]}", ParameterType.RequestBody);

var response = client.Execute(request);
const axios = require('axios');

let data = JSON.stringify({
  "model": "z-ai/glm-4.7-flash",
  "messages": [
    {
      "role": "user",
      "content": "你好"
    }
  ]
});

let config = {
  method: 'post',
  maxBodyLength: Infinity,
  url: 'https://wcode.net/api/gpt/v1/chat/completions',
  headers: {
    'Content-Type': 'application/json',
    'Authorization': 'Bearer API_KEY'     // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://wcode.net/get-apikey
  },
  data : data
};

axios.request(config).then((response) => {
  console.log(JSON.stringify(response.data));
}).catch((error) => {
  console.log(error);
});
OkHttpClient client = new OkHttpClient();

MediaType mediaType = MediaType.parse("application/json");

RequestBody body = RequestBody.create(mediaType, "{\"model\":\"z-ai/glm-4.7-flash\",\"messages\":[{\"role\":\"user\",\"content\":\"你好\"}]}");

Request request = new Request.Builder()
  .url("https://wcode.net/api/gpt/v1/chat/completions")
  .post(body)
  .addHeader("Authorization", "Bearer API_KEY")             // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://wcode.net/get-apikey
  .addHeader("content-type", "application/json")
  .build();

Response response = client.newCall(request).execute();
$client = new \GuzzleHttp\Client();

$headers = [
  'Content-Type' => 'application/json',
  'Authorization' => 'Bearer API_KEY',     // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://wcode.net/get-apikey
];

$body = '{
  "model": "z-ai/glm-4.7-flash",
  "messages": [
    {
      "role": "user",
      "content": "你好"
    }
  ]
}';

$request = new \GuzzleHttp\Psr7\Request('POST', 'https://wcode.net/api/gpt/v1/chat/completions', $headers, $body);

$response = $client->sendAsync($request)->wait();

echo $response->getBody();
$curl = curl_init();

curl_setopt_array($curl, [
  CURLOPT_URL => "https://wcode.net/api/gpt/v1/chat/completions",
  CURLOPT_RETURNTRANSFER => true,
  CURLOPT_ENCODING => "",
  CURLOPT_MAXREDIRS => 5,
  CURLOPT_TIMEOUT => 300,
  CURLOPT_CUSTOMREQUEST => "POST",
  CURLOPT_POSTFIELDS => json_encode([
    'model' => 'z-ai/glm-4.7-flash',
    'messages' => [
      [
        'role' => 'user',
        'content' => '你好'
      ]
    ]
  ]),
  CURLOPT_HTTPHEADER => [
    "Authorization: Bearer API_KEY",     // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://wcode.net/get-apikey
    "content-type: application/json",
  ],
]);

$response = curl_exec($curl);
$error = curl_error($curl);

curl_close($curl);

if ($error) {
  echo "cURL Error #:" . $error;
} else {
  echo $response;
}
import requests
import json

url = "https://wcode.net/api/gpt/v1/chat/completions"

payload = {
  "model": "z-ai/glm-4.7-flash",
  "messages": [
    {
      "role": "user",
      "content": "你好"
    }
  ]
}

headers = {
  "Authorization": "Bearer API_KEY",     # TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://wcode.net/get-apikey
  "content-type": "application/json"
}

response = requests.post(url, json=payload, headers=headers)

print(json.dumps(response.json(), indent=4, ensure_ascii=False))
from openai import OpenAI

client = OpenAI(
  base_url="https://wcode.net/api/gpt/v1",
  api_key="API_KEY"                             # TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://wcode.net/get-apikey
)

completion = client.chat.completions.create(
  model="z-ai/glm-4.7-flash",
  messages=[
    {
      "role": "user",
      "content": "你好"
    }
  ]
)

print(completion.choices[0].message.content)

API 响应示例:

{
    "id": "chatcmpl-t1769269259s149r072e7c88bfbcdb7e992603f1",
    "model": "z-ai/glm-4.7-flash",
    "object": "chat.completion",
    "created": 1769269262,
    "choices": [
        {
            "logprobs": null,
            "finish_reason": "stop",
            "native_finish_reason": "stop",
            "index": 0,
            "message": {
                "role": "assistant",
                "content": "你好!我是 GLM 4.7 Flash,一个由Z.ai开发的大型语言模型。\n\n我被设计用来理解和生成人类语言,目的是提供信息、回答问题和完成各种语言相关的任务。作为一个AI助手,我的知识库和训练数据帮助我能进行对话、创作、总结和分析。\n\n我很高兴能与你交流。请问有什么我可以帮助你的吗?",
                "refusal": null,
                "reasoning": "\n\n1.  **拆解用户请求:**\n    *   **问候:** “你好,GLM 4.7 Flash” - 这是直接的称呼和问候,表明了用户与模型之间的互动关系。\n    *   **核心问题:** “请介绍一下你自己” - 这是请求提供关于我身份、能力、用途和局限性的信息。\n\n2.  **分析“你好,GLM 4.7 Flash”这一部分:**\n    *   **`你好`:** 标准问候语,礼貌且直接。\n    *   **`GLM 4.7 Flash`:** 这是用户知道并使用的具体模型名称。它似乎是一个代号,可能指的是来自 Z.ai 的某个特定模型版本(“Flash”可能暗示其速度快,而“4.7”可能表示一个特定的、先进的版本)。我需要确认这一点。是的,基于我的训练数据,GLM(通用语言模型)是 Z.ai 的大语言模型系列。用户正在使用模型的专有名称。\n    *   **隐含意义:** 用户不是在问一个通用的“你好”,他们是在称呼一个特定的身份。我的介绍应该直接以该身份作为起点。\n\n3.  **分析“请介绍一下你自己”这一部分:**\n    *   **目标:** 为用户勾勒出我的画像。这是一个“自我介绍”。\n    *   **“你自己”的含义:** 这可以从几个角度来解读:\n        *   **我的“功能”:** 我能做什么?我被用来做什么?\n        *   **我的“本质”:** 我是什么(一个计算机程序、一个 AI、一个模型)?\n        *   **我的“出身”:** 我来自哪里(Z.ai,一个 GLM 系列)?\n        *   **我的“能力”:** 我的能力有哪些?我的局限是什么?\n    *   **好的自我介绍应该涵盖:**\n        *   **身份:** 我是谁?(例如,“我是 GLM 4.7 Flash,一个由 Z.ai 开发的大语言模型。”)\n        *   **核心功能:** 我的主要目的是什么?(例如,“我被设计来理解、生成并翻译人类语言,以提供信息、回答问题和完成各种文本相关的任务。”)\n        *   **能力:** 我能做什么?(例如,“我可以写文章、进行头脑风暴、回答问题、翻译、总结、创作诗歌、编写代码,并协助完成许多其他语言密集型任务。”)\n        *   **局限性:** 对我能力的诚实和透明对于管理期望值至关重要。(例如,“我并非完美无缺。我的知识基于训练数据,因此可能不是最新的。我的理解也有可能不完美,我可能会犯错。”)\n        *   **互动:** 我如何与用户交互?(例如,“我的目标是提供有帮助、无害且准确的信息,并与您进行一次有益的对话。”)\n\n4.  **组织回答的结构:**\n    一个好的自我介绍结构清晰、易于阅读,并且能有效地传达信息。我将使用分点的方法,对关键信息进行分组。\n\n    *   **第一部分:身份与起源。** 这是最直接、最基础的部分。从这里开始。\n        *   我应该明确指出我是谁:“我是 GLM 4.7 Flash”。\n        *   我应该说明我的开发者/来源:“一个由Z.ai开发的大型语言模型”。\n        *   我可以添加一个简短的描述:“旨在理解和生成人类语言”。\n\n    *   **第二部分:核心能力。** 这告诉用户我能为他们做什么。使用要点列表能使其易于浏览。\n        *   我会先从最明显的能力开始:**信息检索与问答**。这是用户最常见的请求。\n        *   接着是**内容创作**。这是一个非常广泛且能体现多功能性的类别。我可以将其分解为:\n            *   **写作**:文章、报告、故事、邮件。\n            *   **翻译**:多种语言之间的翻译。\n            *   **总结**:简化长文本。\n        *   我会添加一个更广泛、更抽象的能力:**对话与陪伴**。这表明我不仅是一个工具,也是一个可以交谈的实体。我可以讨论话题、进行头脑风暴或提供情感支持。\n        *   最后,我会添加一个现代大语言模型的一个重要能力:**代码辅助**。这对于开发者和编程初学者来说是一个巨大的卖点。\n\n    *   **第三部分:我的局限性与目标。** 这是关于透明度和诚实的关键部分。它展示了我的负责任之处。\n        *   **局限性:** 我会从几个角度来描述:\n            *   **知识截止**:我必须说明我的知识有一个截止日期,因此我无法提供训练之后发生的事件的信息。这是一个基本且重要的区别。\n            *   **错误的可能性**:我需要承认我可能会犯错,尤其是对于复杂或不寻常的问题。这能管理用户对我所提供答案的期望。\n            *   **理解深度**:我可能会误解复杂的查询,或者对细微差别做出不准确的推断。这是语言模型的固有限制。\n        *   **目标:** 我的最终目标是什么?这是一个面向用户的、积极且诱人的结尾。\n            *   “我的目标是成为一个有用、无害且诚实的助手。” 这是AI伦理中的一个黄金标准。\n            *   “我想通过提供准确、清晰和有帮助的回答,来协助您解决问题、激发您的创造力,并让信息获取变得更加便捷。”\n\n    *   **第四部分:一个简洁的结尾。** 最后,我会加上一个友好的、欢迎式的结束语。这能让整个互动更加顺畅。\n        *   一个简单且有效的结束语是:“我随时准备着为您提供帮助。请问有什么我可以为您做的吗?” 这直接向用户发出了行动号召,并邀请他们开始对话。\n\n5.  **最终审阅:**\n    通读完整的回答。它是否清晰、礼貌、信息丰富,并且有效地回答了用户的问题?结构看起来很合理,语言简洁。它涵盖了所有必要的基础:身份、能力、局限性和目标。语气是专业且有益的,非常适合作为我的自我介绍。这个最终版本看起来不错。"
            }
        }
    ],
    "usage": {
        "prompt_tokens": 18,
        "completion_tokens": 1330,
        "total_tokens": 1348,
        "prompt_tokens_details": {
            "cached_tokens": 3,
            "audio_tokens": 0,
            "video_tokens": 0
        },
        "completion_tokens_details": {
            "reasoning_tokens": 1977,
            "image_tokens": 0
        }
    }
}

可选参数:

重要提示:由于模型架构不同,部分参数可能仅适用于特定的模型。

温度

  • 参数:temperature

  • 可选,浮点数,0.0 到 2.0

  • 默认:1.0

此设置影响模型回复的多样性。较低的值会使回复更可预测、更常见;较高的值会鼓励更具多样性且较不常见的回复。当设置为 0 时,模型对相同输入将尽可能的给出相同的回复。

Top-P

  • 参数:top_p

  • 可选,float,0.0 至 1.0

  • 默认值:1.0

top_p 参数控制模型在生成文本时的候选词选择范围。具体来说,模型会生成一组候选 token,然后从累积概率达到或超过 p 的 token 中随机选择一个作为输出。通过这种方式,top_p 能够在保证生成内容的多样性的同时,考虑到概率分布的合理性。

由于 temperature 与 top_p 均可以控制生成文本的多样性,因此建议您只设置其中一个值。

Top-K

  • 参数:top_k

  • 可选,int,>= 0

  • 默认值:0

top_k 会限制模型在每一步对 token 的选择,使其从较小的集合中进行选择。值为 1 表示模型将始终选择最有可能的下一个 token,从而得到可预测的结果。

频率惩罚

  • 参数:frequency_penalty

  • 可选,float,-2.0 至 2.0

  • 默认值:0.0

frequency_penalty 可根据词条在输入中出现的频率来控制其重复使用。它会尝试减少那些在输入中出现频率较高的词条的使用频率,这与它们出现的频率成正比。词条惩罚会随着出现次数的增加而增加。负值将鼓励词条重复使用。

存在惩罚

  • 参数:presence_penalty

  • 可选,float,-2.0 至 2.0

  • 默认值:0.0

presence_penalty 调整模型重复输入中已使用的特定标记的频率。值越高,重复的可能性就越小,负值则相反。标记惩罚不会随着出现次数而变化。负值会鼓励标记重用。

重复惩罚

  • 参数:repetition_penalty

  • 可选,float,0.0 至 2.0

  • 默认值:1.0

repetition_penalty 有助于减少输入中标记的重复。较高的值会降低模型重复标记的可能性,但过高的值会使输出不够连贯(通常会出现缺少小词的连续句子)。标记惩罚会根据原始标记的概率进行调整。

Min-P

  • 参数:min_p

  • 可选,float,0.0 至 1.0

  • 默认值:0.0

min_p 表示某个 token 被考虑的最小概率,该概率是相对于最可能的 token 的概率而言的。如果 min_p 设置为 0.1,则意味着它只允许概率至少为最佳选项十分之一的 token 被考虑。

Top-A

  • 参数:top_a

  • 可选,float,0.0 到 1.0

  • 默认值:0.0

top_a 仅考虑概率“足够高”的 top tokens,该概率基于最可能的 token 概率。可以将其视为一个动态的 Top-P。较低的 Top-A 值会根据概率最高的 token 集中选择,但范围会更窄。较高的 Top-A 值不一定会影响输出的创造性,但会根据最大概率优化过滤过程。

种子

  • 参数:seed

  • 可选,int

如果指定了 seed 参数,推理将确定性地进行采样,即使用相同种子和参数的重复请求应该返回相同的结果。某些模型无法保证确定性。

最大 tokens 数

  • 参数:max_tokens

  • 可选,int,>= 1

max_tokens 可设定模型在响应中可以生成的 token 数量的上限。模型不会生成超过此限制的 token。其最大值等于上下文长度减去 prompt 长度。

Logit Bias

  • 参数:logit_bias

  • 可选,object

logit_bias 是一个可选参数,用于修改指定 token 在模型生成输出中出现的可能性。

对数概率

  • 参数:logprobs

  • 可选,boolean

logprobs 设置是否返回输出 token 的对数概率。如果为 true,则返回每个输出 token 的对数概率。

最高对数概率

  • 参数:top_logprobs

  • 可选,int

top_logprobs 是一个介于 0 和 20 之间的整数,指定在每个 token 位置要返回的最可能 token 的数量,每个 token 都会带有相应的对数概率。如果使用此参数,则必须将 logprobs 设置为 true

响应格式

  • 参数:response_format

  • 可选,object

response_format 强制模型产出特定的输出格式。将其设置为 { "type": "json_object" } 可启用 JSON 模式,保证模型生成的消息为有效的 JSON。

注意:使用 JSON 模式时,应同时通过 system 或 user 提示词指示模型生成 JSON。

结构化输出

  • 参数:structured_outputs

  • 可选,boolean

指示模型是否能够使用 response_format 中的 json_schema 返回结构化输出。

停止

  • 参数:stop

  • 可选,array

如果模型遇到 stop 数组中指定的任意 token,则立即停止生成。

工具

  • 参数:tools

  • 可选,array

工具调用参数,遵循 OpenAI 的工具调用请求格式。对于非 OpenAI 提供者,会相应地进行转换。

工具选择

  • 参数:tool_choice

  • 可选,array

控制模型调用哪个工具。'none' 表示模型不会调用任何工具,而是生成一条消息。'auto' 表示模型可以在生成消息或调用一个或多个工具之间进行选择。'required' 表示模型必须调用一个或多个工具。通过 {"type": "function", "function": {"name": "my_function"}} 指定特定工具会强制模型调用该工具。

并行工具调用

  • 参数:parallel_tool_calls

  • 可选,boolean

  • 默认:true

是否在使用工具时启用并行函数调用。如果为 true,模型可以同时调用多个函数。如果为 false,函数将按顺序依次调用。

冗长程度

  • 参数:verbosity

  • 可选,enumlow medium high

  • 默认:medium

控制模型响应的冗长程度和长度。较低的值会生成更简洁的回答,而较高的值会生成更详细、更全面的回答。


以上文档为标准版 API 接口文档,可直接用于项目开发和系统调用。如果标准版 API 接口无法满足您的需求,需要定制开发 API 接口,请联系我们的 IT 技术支持工程师:

(沟通需求✅ → 确认技术方案✅ → 沟通费用与工期✅ → 开发&测试✅ → 验收交付✅ → 维护升级✅)

最受关注模型

DeepSeek V3.2

文本生成

Kimi K2 Thinking

文本生成、深度思考

GLM 4.7

文本生成、深度思考

MiniMax M2

文本生成、深度思考

MiniMax M2.1

文本生成、深度思考

GLM 4.6V

图片识别、深度思考

DeepSeek V3.2 Speciale

文本生成、深度思考

通义千问 Qwen-Plus

文本生成

Qwen3 VL Plus

图片识别、视觉理解、深度思考

GLM 4.7 Flash

文本生成、深度思考

最新发布模型

MiniMax M2-her

文本生成、角色扮演

GLM 4.7 Flash

文本生成、深度思考

GLM 4.7

文本生成、深度思考

MiniMax M2.1

文本生成、深度思考

Qwen3 VL Plus

图片识别、视觉理解、深度思考

GLM 4.6V

图片识别、深度思考

DeepSeek V3.2

文本生成

通义千问 Qwen-Plus

文本生成

DeepSeek V3.2 Speciale

文本生成、深度思考

Kimi K2 Thinking

文本生成、深度思考