GLM 4.7 Flash API 接口、参数 & 代码示例

z-ai/glm-4.7-flash

作为具备300亿参数规模的先进模型,GLM-4.7-Flash在性能与效率之间实现了新的平衡。该模型进一步针对智能编程场景进行优化,增强了代码生成、长程任务规划及工具协作能力,在多项主流公开基准测试中均取得同规模开源模型的领先表现,为追求高效能计算的应用提供了卓越选择。

模型 ID
z-ai/glm-4.7-flash
模型系列
GLM
更新日期
模型能力
文本生成、深度思考
上下文长度
195 K
模型价格(每 1000 tokens 输入)
¥ 0.00125
模型价格(每 1000 tokens 输出)
¥ 0.0055

GLM 4.7 Flash 模型介绍:

GLM-4.7-Flash 是一个 30B-A3B 的专家混合(MoE)模型。作为 30B 级别中最强的模型,GLM-4.7-Flash 为在性能与效率之间取得平衡的轻量化部署提供了新的选择。

基准测试表现:

基准测试 GLM-4.7-Flash Qwen3-30B-A3B-Thinking-2507 GPT-OSS-20B
AIME 25 91.6 85.0 91.7
GPQA 75.2 73.4 71.5
LCB v6 64.0 66.0 61.0
HLE 14.4 9.8 10.9
SWE-bench Verified 59.2 22.0 34.0
τ²-Bench 79.5 49.0 47.7
BrowseComp 42.8 2.29 28.3

API 接口地址:

https://wcode.net/api/gpt/v1/chat/completions

此 API 接口兼容 OpenAI 的接口规范,也就是可以直接使用 OpenAI 的 SDK 来调用各个模型。仅需替换以下两项配置即可:

  1. base_url 替换为 https://wcode.net/api/gpt/v1
  2. api_key 替换为从 https://wcode.net/get-apikey 获取到的 API Key

具体可参考下方的各编程语言代码示例中的 openai sdk 调用示例。

请求方法:

POST

各编程语言代码示例:

# TODO: 以下代码中的 API_KEY 需要替换,获取 API Key 入口:https://wcode.net/get-apikey
curl --request POST 'https://wcode.net/api/gpt/v1/chat/completions' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer API_KEY' \
--data '{
    "model": "z-ai/glm-4.7-flash",
    "messages": [
        {
            "role": "user",
            "content": "你好"
        }
    ]
}'
import Foundation

let headers = [
  "Authorization": "Bearer API_KEY",     // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://wcode.net/get-apikey
  "content-type": "application/json"
]
let parameters = [
  "model": "z-ai/glm-4.7-flash",
  "messages": [
    [
      "role": "user",
      "content": "你好"
    ]
  ]
] as [String : Any]

let postData = JSONSerialization.data(withJSONObject: parameters, options: [])

let request = NSMutableURLRequest(url: NSURL(string: "https://wcode.net/api/gpt/v1/chat/completions")! as URL,
                                        cachePolicy: .useProtocolCachePolicy,
                                    timeoutInterval: 60.0)
request.httpMethod = "POST"
request.allHTTPHeaderFields = headers
request.httpBody = postData as Data

let session = URLSession.shared
let dataTask = session.dataTask(with: request as URLRequest, completionHandler: { (data, response, error) -> Void in
  if (error != nil) {
    print(error as Any)
  } else {
    let httpResponse = response as? HTTPURLResponse
    print(httpResponse)
  }
})

dataTask.resume()
var headers = {
  'Content-Type': 'application/json',
  'Authorization': 'Bearer API_KEY'     // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://wcode.net/get-apikey
};
var request = http.Request('POST', Uri.parse('https://wcode.net/api/gpt/v1/chat/completions'));
request.body = json.encode({
  "model": "z-ai/glm-4.7-flash",
  "messages": [
    {
      "role": "user",
      "content": "你好"
    }
  ]
});
request.headers.addAll(headers);

http.StreamedResponse response = await request.send();

if (response.statusCode == 200) {
  print(await response.stream.bytesToString());
}
else {
  print(response.reasonPhrase);
}
require 'uri'
require 'net/http'

url = URI("https://wcode.net/api/gpt/v1/chat/completions")

http = Net::HTTP.new(url.host, url.port)
http.use_ssl = true

request = Net::HTTP::Post.new(url)
request["Authorization"] = 'Bearer API_KEY'     # TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://wcode.net/get-apikey
request["content-type"] = 'application/json'
request.body = "{\"model\":\"z-ai/glm-4.7-flash\",\"messages\":[{\"role\":\"user\",\"content\":\"你好\"}]}"

response = http.request(request)
puts response.read_body
use serde_json::json;
use reqwest;

#[tokio::main]
pub async fn main() {
  let url = "https://wcode.net/api/gpt/v1/chat/completions";

  let payload = json!({
    "model": "z-ai/glm-4.7-flash",
    "messages": (
      json!({
        "role": "user",
        "content": "你好"
      })
    )
  });

  let mut headers = reqwest::header::HeaderMap::new();
  headers.insert("Authorization", "Bearer API_KEY".parse().unwrap());     // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://wcode.net/get-apikey
  headers.insert("content-type", "application/json".parse().unwrap());

  let client = reqwest::Client::new();
  let response = client.post(url)
    .headers(headers)
    .json(&payload)
    .send()
    .await;

  let results = response.unwrap()
    .json::<serde_json::Value>()
    .await
    .unwrap();

  dbg!(results);
}
CURL *hnd = curl_easy_init();

curl_easy_setopt(hnd, CURLOPT_CUSTOMREQUEST, "POST");
curl_easy_setopt(hnd, CURLOPT_URL, "https://wcode.net/api/gpt/v1/chat/completions");

struct curl_slist *headers = NULL;
headers = curl_slist_append(headers, "Authorization: Bearer API_KEY");    // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://wcode.net/get-apikey
headers = curl_slist_append(headers, "content-type: application/json");
curl_easy_setopt(hnd, CURLOPT_HTTPHEADER, headers);

curl_easy_setopt(hnd, CURLOPT_POSTFIELDS, "{\"model\":\"z-ai/glm-4.7-flash\",\"messages\":[{\"role\":\"user\",\"content\":\"你好\"}]}");

CURLcode ret = curl_easy_perform(hnd);
package main

import (
  "fmt"
  "strings"
  "net/http"
  "io"
)

func main() {
  url := "https://wcode.net/api/gpt/v1/chat/completions"

  payload := strings.NewReader("{\"model\":\"z-ai/glm-4.7-flash\",\"messages\":[{\"role\":\"user\",\"content\":\"你好\"}]}")

  req, _ := http.NewRequest("POST", url, payload)

  req.Header.Add("Authorization", "Bearer API_KEY")     // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://wcode.net/get-apikey
  req.Header.Add("content-type", "application/json")

  res, _ := http.DefaultClient.Do(req)

  defer res.Body.Close()
  body, _ := io.ReadAll(res.Body)

  fmt.Println(res)
  fmt.Println(string(body))
}
using System.Net.Http.Headers;


var client = new HttpClient();

var request = new HttpRequestMessage(HttpMethod.Post, "https://wcode.net/api/gpt/v1/chat/completions");

request.Headers.Add("Authorization", "Bearer API_KEY");     // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://wcode.net/get-apikey

request.Content = new StringContent("{\"model\":\"z-ai/glm-4.7-flash\",\"messages\":[{\"role\":\"user\",\"content\":\"你好\"}]}", null, "application/json");

var response = await client.SendAsync(request);

response.EnsureSuccessStatusCode();

Console.WriteLine(await response.Content.ReadAsStringAsync());
var client = new RestClient("https://wcode.net/api/gpt/v1/chat/completions");

var request = new RestRequest("", Method.Post);

request.AddHeader("Authorization", "Bearer API_KEY");     // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://wcode.net/get-apikey

request.AddHeader("content-type", "application/json");

request.AddParameter("application/json", "{\"model\":\"z-ai/glm-4.7-flash\",\"messages\":[{\"role\":\"user\",\"content\":\"你好\"}]}", ParameterType.RequestBody);

var response = client.Execute(request);
const axios = require('axios');

let data = JSON.stringify({
  "model": "z-ai/glm-4.7-flash",
  "messages": [
    {
      "role": "user",
      "content": "你好"
    }
  ]
});

let config = {
  method: 'post',
  maxBodyLength: Infinity,
  url: 'https://wcode.net/api/gpt/v1/chat/completions',
  headers: {
    'Content-Type': 'application/json',
    'Authorization': 'Bearer API_KEY'     // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://wcode.net/get-apikey
  },
  data : data
};

axios.request(config).then((response) => {
  console.log(JSON.stringify(response.data));
}).catch((error) => {
  console.log(error);
});
OkHttpClient client = new OkHttpClient();

MediaType mediaType = MediaType.parse("application/json");

RequestBody body = RequestBody.create(mediaType, "{\"model\":\"z-ai/glm-4.7-flash\",\"messages\":[{\"role\":\"user\",\"content\":\"你好\"}]}");

Request request = new Request.Builder()
  .url("https://wcode.net/api/gpt/v1/chat/completions")
  .post(body)
  .addHeader("Authorization", "Bearer API_KEY")             // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://wcode.net/get-apikey
  .addHeader("content-type", "application/json")
  .build();

Response response = client.newCall(request).execute();
$client = new \GuzzleHttp\Client();

$headers = [
  'Content-Type' => 'application/json',
  'Authorization' => 'Bearer API_KEY',     // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://wcode.net/get-apikey
];

$body = '{
  "model": "z-ai/glm-4.7-flash",
  "messages": [
    {
      "role": "user",
      "content": "你好"
    }
  ]
}';

$request = new \GuzzleHttp\Psr7\Request('POST', 'https://wcode.net/api/gpt/v1/chat/completions', $headers, $body);

$response = $client->sendAsync($request)->wait();

echo $response->getBody();
$curl = curl_init();

curl_setopt_array($curl, [
  CURLOPT_URL => "https://wcode.net/api/gpt/v1/chat/completions",
  CURLOPT_RETURNTRANSFER => true,
  CURLOPT_ENCODING => "",
  CURLOPT_MAXREDIRS => 5,
  CURLOPT_TIMEOUT => 300,
  CURLOPT_CUSTOMREQUEST => "POST",
  CURLOPT_POSTFIELDS => json_encode([
    'model' => 'z-ai/glm-4.7-flash',
    'messages' => [
      [
        'role' => 'user',
        'content' => '你好'
      ]
    ]
  ]),
  CURLOPT_HTTPHEADER => [
    "Authorization: Bearer API_KEY",     // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://wcode.net/get-apikey
    "content-type: application/json",
  ],
]);

$response = curl_exec($curl);
$error = curl_error($curl);

curl_close($curl);

if ($error) {
  echo "cURL Error #:" . $error;
} else {
  echo $response;
}
import requests
import json

url = "https://wcode.net/api/gpt/v1/chat/completions"

payload = {
  "model": "z-ai/glm-4.7-flash",
  "messages": [
    {
      "role": "user",
      "content": "你好"
    }
  ]
}

headers = {
  "Authorization": "Bearer API_KEY",     # TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://wcode.net/get-apikey
  "content-type": "application/json"
}

response = requests.post(url, json=payload, headers=headers)

print(json.dumps(response.json(), indent=4, ensure_ascii=False))
from openai import OpenAI

client = OpenAI(
  base_url="https://wcode.net/api/gpt/v1",
  api_key="API_KEY"                             # TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://wcode.net/get-apikey
)

completion = client.chat.completions.create(
  model="z-ai/glm-4.7-flash",
  messages=[
    {
      "role": "user",
      "content": "你好"
    }
  ]
)

print(completion.choices[0].message.content)

API 响应示例:

{
    "id": "chatcmpl-t1769269259s149r072e7c88bfbcdb7e992603f1",
    "model": "z-ai/glm-4.7-flash",
    "object": "chat.completion",
    "created": 1769269262,
    "choices": [
        {
            "logprobs": null,
            "finish_reason": "stop",
            "native_finish_reason": "stop",
            "index": 0,
            "message": {
                "role": "assistant",
                "content": "你好!我是 GLM 4.7 Flash,一个由Z.ai开发的大型语言模型。\n\n我被设计用来理解和生成人类语言,目的是提供信息、回答问题和完成各种语言相关的任务。作为一个AI助手,我的知识库和训练数据帮助我能进行对话、创作、总结和分析。\n\n我很高兴能与你交流。请问有什么我可以帮助你的吗?",
                "refusal": null,
                "reasoning": "\n\n1.  **拆解用户请求:**\n    *   **问候:** “你好,GLM 4.7 Flash” - 这是直接的称呼和问候,表明了用户与模型之间的互动关系。\n    *   **核心问题:** “请介绍一下你自己” - 这是请求提供关于我身份、能力、用途和局限性的信息。\n\n2.  **分析“你好,GLM 4.7 Flash”这一部分:**\n    *   **`你好`:** 标准问候语,礼貌且直接。\n    *   **`GLM 4.7 Flash`:** 这是用户知道并使用的具体模型名称。它似乎是一个代号,可能指的是来自 Z.ai 的某个特定模型版本(“Flash”可能暗示其速度快,而“4.7”可能表示一个特定的、先进的版本)。我需要确认这一点。是的,基于我的训练数据,GLM(通用语言模型)是 Z.ai 的大语言模型系列。用户正在使用模型的专有名称。\n    *   **隐含意义:** 用户不是在问一个通用的“你好”,他们是在称呼一个特定的身份。我的介绍应该直接以该身份作为起点。\n\n3.  **分析“请介绍一下你自己”这一部分:**\n    *   **目标:** 为用户勾勒出我的画像。这是一个“自我介绍”。\n    *   **“你自己”的含义:** 这可以从几个角度来解读:\n        *   **我的“功能”:** 我能做什么?我被用来做什么?\n        *   **我的“本质”:** 我是什么(一个计算机程序、一个 AI、一个模型)?\n        *   **我的“出身”:** 我来自哪里(Z.ai,一个 GLM 系列)?\n        *   **我的“能力”:** 我的能力有哪些?我的局限是什么?\n    *   **好的自我介绍应该涵盖:**\n        *   **身份:** 我是谁?(例如,“我是 GLM 4.7 Flash,一个由 Z.ai 开发的大语言模型。”)\n        *   **核心功能:** 我的主要目的是什么?(例如,“我被设计来理解、生成并翻译人类语言,以提供信息、回答问题和完成各种文本相关的任务。”)\n        *   **能力:** 我能做什么?(例如,“我可以写文章、进行头脑风暴、回答问题、翻译、总结、创作诗歌、编写代码,并协助完成许多其他语言密集型任务。”)\n        *   **局限性:** 对我能力的诚实和透明对于管理期望值至关重要。(例如,“我并非完美无缺。我的知识基于训练数据,因此可能不是最新的。我的理解也有可能不完美,我可能会犯错。”)\n        *   **互动:** 我如何与用户交互?(例如,“我的目标是提供有帮助、无害且准确的信息,并与您进行一次有益的对话。”)\n\n4.  **组织回答的结构:**\n    一个好的自我介绍结构清晰、易于阅读,并且能有效地传达信息。我将使用分点的方法,对关键信息进行分组。\n\n    *   **第一部分:身份与起源。** 这是最直接、最基础的部分。从这里开始。\n        *   我应该明确指出我是谁:“我是 GLM 4.7 Flash”。\n        *   我应该说明我的开发者/来源:“一个由Z.ai开发的大型语言模型”。\n        *   我可以添加一个简短的描述:“旨在理解和生成人类语言”。\n\n    *   **第二部分:核心能力。** 这告诉用户我能为他们做什么。使用要点列表能使其易于浏览。\n        *   我会先从最明显的能力开始:**信息检索与问答**。这是用户最常见的请求。\n        *   接着是**内容创作**。这是一个非常广泛且能体现多功能性的类别。我可以将其分解为:\n            *   **写作**:文章、报告、故事、邮件。\n            *   **翻译**:多种语言之间的翻译。\n            *   **总结**:简化长文本。\n        *   我会添加一个更广泛、更抽象的能力:**对话与陪伴**。这表明我不仅是一个工具,也是一个可以交谈的实体。我可以讨论话题、进行头脑风暴或提供情感支持。\n        *   最后,我会添加一个现代大语言模型的一个重要能力:**代码辅助**。这对于开发者和编程初学者来说是一个巨大的卖点。\n\n    *   **第三部分:我的局限性与目标。** 这是关于透明度和诚实的关键部分。它展示了我的负责任之处。\n        *   **局限性:** 我会从几个角度来描述:\n            *   **知识截止**:我必须说明我的知识有一个截止日期,因此我无法提供训练之后发生的事件的信息。这是一个基本且重要的区别。\n            *   **错误的可能性**:我需要承认我可能会犯错,尤其是对于复杂或不寻常的问题。这能管理用户对我所提供答案的期望。\n            *   **理解深度**:我可能会误解复杂的查询,或者对细微差别做出不准确的推断。这是语言模型的固有限制。\n        *   **目标:** 我的最终目标是什么?这是一个面向用户的、积极且诱人的结尾。\n            *   “我的目标是成为一个有用、无害且诚实的助手。” 这是AI伦理中的一个黄金标准。\n            *   “我想通过提供准确、清晰和有帮助的回答,来协助您解决问题、激发您的创造力,并让信息获取变得更加便捷。”\n\n    *   **第四部分:一个简洁的结尾。** 最后,我会加上一个友好的、欢迎式的结束语。这能让整个互动更加顺畅。\n        *   一个简单且有效的结束语是:“我随时准备着为您提供帮助。请问有什么我可以为您做的吗?” 这直接向用户发出了行动号召,并邀请他们开始对话。\n\n5.  **最终审阅:**\n    通读完整的回答。它是否清晰、礼貌、信息丰富,并且有效地回答了用户的问题?结构看起来很合理,语言简洁。它涵盖了所有必要的基础:身份、能力、局限性和目标。语气是专业且有益的,非常适合作为我的自我介绍。这个最终版本看起来不错。"
            }
        }
    ],
    "usage": {
        "prompt_tokens": 18,
        "completion_tokens": 1330,
        "total_tokens": 1348,
        "prompt_tokens_details": {
            "cached_tokens": 3,
            "audio_tokens": 0,
            "video_tokens": 0
        },
        "completion_tokens_details": {
            "reasoning_tokens": 1977,
            "image_tokens": 0
        }
    }
}

可选参数:

重要提示:由于模型架构不同,部分参数可能仅适用于特定的模型。

温度

  • 参数:temperature

  • 可选,浮点数,0.0 到 2.0

  • 默认:1.0

此设置影响模型回复的多样性。较低的值会使回复更可预测、更常见;较高的值会鼓励更具多样性且较不常见的回复。当设置为 0 时,模型对相同输入将尽可能的给出相同的回复。

Top-P

  • 参数:top_p

  • 可选,float,0.0 至 1.0

  • 默认值:1.0

top_p 参数控制模型在生成文本时的候选词选择范围。具体来说,模型会生成一组候选 token,然后从累积概率达到或超过 p 的 token 中随机选择一个作为输出。通过这种方式,top_p 能够在保证生成内容的多样性的同时,考虑到概率分布的合理性。

由于 temperature 与 top_p 均可以控制生成文本的多样性,因此建议您只设置其中一个值。

Top-K

  • 参数:top_k

  • 可选,int,>= 0

  • 默认值:0

top_k 会限制模型在每一步对 token 的选择,使其从较小的集合中进行选择。值为 1 表示模型将始终选择最有可能的下一个 token,从而得到可预测的结果。

频率惩罚

  • 参数:frequency_penalty

  • 可选,float,-2.0 至 2.0

  • 默认值:0.0

frequency_penalty 可根据词条在输入中出现的频率来控制其重复使用。它会尝试减少那些在输入中出现频率较高的词条的使用频率,这与它们出现的频率成正比。词条惩罚会随着出现次数的增加而增加。负值将鼓励词条重复使用。

存在惩罚

  • 参数:presence_penalty

  • 可选,float,-2.0 至 2.0

  • 默认值:0.0

presence_penalty 调整模型重复输入中已使用的特定标记的频率。值越高,重复的可能性就越小,负值则相反。标记惩罚不会随着出现次数而变化。负值会鼓励标记重用。

重复惩罚

  • 参数:repetition_penalty

  • 可选,float,0.0 至 2.0

  • 默认值:1.0

repetition_penalty 有助于减少输入中标记的重复。较高的值会降低模型重复标记的可能性,但过高的值会使输出不够连贯(通常会出现缺少小词的连续句子)。标记惩罚会根据原始标记的概率进行调整。

Min-P

  • 参数:min_p

  • 可选,float,0.0 至 1.0

  • 默认值:0.0

min_p 表示某个 token 被考虑的最小概率,该概率是相对于最可能的 token 的概率而言的。如果 min_p 设置为 0.1,则意味着它只允许概率至少为最佳选项十分之一的 token 被考虑。

Top-A

  • 参数:top_a

  • 可选,float,0.0 到 1.0

  • 默认值:0.0

top_a 仅考虑概率“足够高”的 top tokens,该概率基于最可能的 token 概率。可以将其视为一个动态的 Top-P。较低的 Top-A 值会根据概率最高的 token 集中选择,但范围会更窄。较高的 Top-A 值不一定会影响输出的创造性,但会根据最大概率优化过滤过程。

种子

  • 参数:seed

  • 可选,int

如果指定了 seed 参数,推理将确定性地进行采样,即使用相同种子和参数的重复请求应该返回相同的结果。某些模型无法保证确定性。

最大 tokens 数

  • 参数:max_tokens

  • 可选,int,>= 1

max_tokens 可设定模型在响应中可以生成的 token 数量的上限。模型不会生成超过此限制的 token。其最大值等于上下文长度减去 prompt 长度。

Logit Bias

  • 参数:logit_bias

  • 可选,object

logit_bias 是一个可选参数,用于修改指定 token 在模型生成输出中出现的可能性。

对数概率

  • 参数:logprobs

  • 可选,boolean

logprobs 设置是否返回输出 token 的对数概率。如果为 true,则返回每个输出 token 的对数概率。

最高对数概率

  • 参数:top_logprobs

  • 可选,int

top_logprobs 是一个介于 0 和 20 之间的整数,指定在每个 token 位置要返回的最可能 token 的数量,每个 token 都会带有相应的对数概率。如果使用此参数,则必须将 logprobs 设置为 true

响应格式

  • 参数:response_format

  • 可选,object

response_format 强制模型产出特定的输出格式。将其设置为 { "type": "json_object" } 可启用 JSON 模式,保证模型生成的消息为有效的 JSON。

注意:使用 JSON 模式时,应同时通过 system 或 user 提示词指示模型生成 JSON。

结构化输出

  • 参数:structured_outputs

  • 可选,boolean

指示模型是否能够使用 response_format 中的 json_schema 返回结构化输出。

停止

  • 参数:stop

  • 可选,array

如果模型遇到 stop 数组中指定的任意 token,则立即停止生成。

工具

  • 参数:tools

  • 可选,array

工具调用参数,遵循 OpenAI 的工具调用请求格式。对于非 OpenAI 提供者,会相应地进行转换。

工具选择

  • 参数:tool_choice

  • 可选,array

控制模型调用哪个工具。'none' 表示模型不会调用任何工具,而是生成一条消息。'auto' 表示模型可以在生成消息或调用一个或多个工具之间进行选择。'required' 表示模型必须调用一个或多个工具。通过 {"type": "function", "function": {"name": "my_function"}} 指定特定工具会强制模型调用该工具。

并行工具调用

  • 参数:parallel_tool_calls

  • 可选,boolean

  • 默认:true

是否在使用工具时启用并行函数调用。如果为 true,模型可以同时调用多个函数。如果为 false,函数将按顺序依次调用。

冗长程度

  • 参数:verbosity

  • 可选,enumlow medium high

  • 默认:medium

控制模型响应的冗长程度和长度。较低的值会生成更简洁的回答,而较高的值会生成更详细、更全面的回答。


以上文档为标准版 API 接口文档,可直接用于项目开发和系统调用。如果标准版 API 接口无法满足您的需求,需要定制开发 API 接口,请联系我们的 IT 技术支持工程师:

(沟通需求✅ → 确认技术方案✅ → 沟通费用与工期✅ → 开发&测试✅ → 验收交付✅ → 维护升级✅)

最受关注模型

DeepSeek V3.2

文本生成

GLM 4.7

文本生成、深度思考

MiniMax M2.1

文本生成、深度思考

Qwen3 Coder Next

文本生成、深度思考、代码补全

GLM 5

文本生成、深度思考、代码补全

GLM 4.6V

图片识别、深度思考

DeepSeek V3.2 Speciale

文本生成、深度思考

Doubao Seed 1.8

多模态、深度思考

通义千问 Qwen Plus

文本生成

Kimi K2.5

文本生成、图片识别、深度思考、多模态

最新发布模型

Doubao Seed 2.0 Pro

文本生成、深度思考、多模态

Doubao Seed 2.0 Mini

文本生成、深度思考、多模态

Doubao Seed 2.0 Lite

文本生成、深度思考、多模态

Doubao Seed 2.0 Code

代码补全、深度思考

GLM 5

文本生成、深度思考、代码补全

MiniMax M2.5

内容生成、 深度思考、代码补全

Qwen3 Max Thinking

文本生成、深度思考

Qwen3 Coder Next

文本生成、深度思考、代码补全

Kimi K2.5

文本生成、图片识别、深度思考、多模态

MiniMax M2-her

文本生成、角色扮演