Qwen 3.6 Plus API 接口、模型参数 & 代码示例

qwen3.6-plus

Qwen 3.6 原生视觉语言系列 Plus 模型,展现出与当前顶尖前沿模型相媲美的卓越性能,模型效果相较 Qwen 3.5 系列显著提升。模型在 Agentic coding、前端编程、Vibe coding 等代码能力、多模态万物识别、OCR、物体定位等能力上显著增强。

模型 ID
qwen3.6-plus
模型系列
Qwen
更新日期
模型能力
文本生成、深度思考、视觉理解
上下文长度
1024 K

阶梯计费: 输入 <= 256 k

模型价格(每 1000 tokens 输入)
¥ 0.0021
模型价格(每 1000 tokens 输出)
¥ 0.0129

阶梯计费: 输入 > 256 k

模型价格(每 1000 tokens 输入)
¥ 0.0085
模型价格(每 1000 tokens 输出)
¥ 0.05

Qwen 3.6 Plus 模型介绍:

Qwen 3.6 显著增强了模型的智能体(Agent)编程能力。无论是前端网页开发,还是复杂的代码仓库级问题求解,Qwen 3.6 Plus 均树立了全新的业界标杆(SOTA)。此外,Qwen3.6-Plus 对世界的感知更加精准,多模态推理能力也更为敏锐。本次发布直接回应了社区在 Qwen3.5-Plus 部署期间反馈的意见,为开发者生态提供了高度稳定可靠的基础,带来真正具有变革意义的“氛围编程”(Vibe Coding)体验。

Qwen3.6-Plus 主要特性包括:

  • 默认支持100万上下文窗口
  • 显著提升的智能体编程能力
  • 更出色的多模态感知与推理能力

Qwen 3.6 Plus

模型表现:

1. 自然语言

Qwen3.6-Plus 通过深度融合推理、记忆与执行能力,在代码智能体、通用智能体和工具调用都实现了全面跃升。

在代码智能体领域,Qwen3.6-Plus 展现出卓越的工程落地能力,不仅在主流代码修复基准上紧追行业标杆,更在复杂的终端操作与自动化任务执行中表现突出。

在通用智能体与工具使用方面,模型实现了显著突破,特别是在多个高难度的长程规划任务中取得最优成绩,并在各类工具调用基准上全面领先。

在通用能力上,Qwen3.6-Plus 保持了顶尖水准:无论是高难度的 STEM 推理,还是超长上下文的精准信息提取,亦或是多语言环境的广泛适配,模型均在多项关键评测中刷新最佳表现。

2. 视觉语言

Qwen3.6-Plus 在多模态能力上进一步升级,并围绕推理能力增强、指令模式实用性提升以及复杂任务执行能力拓展三个方向持续演进。

在多模态推理方面,Qwen3.6-Plus 在复杂文档理解、物理世界视觉理解、视频推理和视觉编程等任务上取得了稳定提升,模型能够更有效地整合跨模态信息,并完成更复杂的分析与决策。

在指令模式实用性方面,Qwen3.6-Plus 结合真实业务场景持续优化,在指令遵循、疑难文字识别、万物识别、细粒度图像感知,以及真实场景理解中展现出更强的实用性与稳定性。

API 接口地址:

https://wcode.net/api/gpt/v1/chat/completions

此 API 接口兼容 OpenAI 的 API 接口规范,也就是可以直接使用 OpenAI 的 SDK 来调用各个模型。仅需替换以下两项配置即可:

  1. base_url 替换为 https://wcode.net/api/gpt/v1
  2. api_key 替换为从 https://platform.wcode.net 获取到的 API Key

具体可参考下方的各编程语言代码示例中的 OpenAI SDK 调用示例。

请求方法:

POST

各编程语言代码示例:

# TODO: 以下代码中的 API_KEY 需要替换,获取 API Key 入口:https://platform.wcode.net
curl --request POST 'https://wcode.net/api/gpt/v1/chat/completions' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer API_KEY' \
--data '{
    "model": "qwen3.6-plus",
    "messages": [
        {
            "role": "user",
            "content": "你好"
        }
    ]
}'
import Foundation

let headers = [
  "Authorization": "Bearer API_KEY",     // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://platform.wcode.net
  "content-type": "application/json"
]
let parameters = [
  "model": "qwen3.6-plus",
  "messages": [
    [
      "role": "user",
      "content": "你好"
    ]
  ]
] as [String : Any]

let postData = JSONSerialization.data(withJSONObject: parameters, options: [])

let request = NSMutableURLRequest(url: NSURL(string: "https://wcode.net/api/gpt/v1/chat/completions")! as URL,
                                        cachePolicy: .useProtocolCachePolicy,
                                    timeoutInterval: 60.0)
request.httpMethod = "POST"
request.allHTTPHeaderFields = headers
request.httpBody = postData as Data

let session = URLSession.shared
let dataTask = session.dataTask(with: request as URLRequest, completionHandler: { (data, response, error) -> Void in
  if (error != nil) {
    print(error as Any)
  } else {
    let httpResponse = response as? HTTPURLResponse
    print(httpResponse)
  }
})

dataTask.resume()
var headers = {
  'Content-Type': 'application/json',
  'Authorization': 'Bearer API_KEY'     // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://platform.wcode.net
};
var request = http.Request('POST', Uri.parse('https://wcode.net/api/gpt/v1/chat/completions'));
request.body = json.encode({
  "model": "qwen3.6-plus",
  "messages": [
    {
      "role": "user",
      "content": "你好"
    }
  ]
});
request.headers.addAll(headers);

http.StreamedResponse response = await request.send();

if (response.statusCode == 200) {
  print(await response.stream.bytesToString());
}
else {
  print(response.reasonPhrase);
}
require 'uri'
require 'net/http'

url = URI("https://wcode.net/api/gpt/v1/chat/completions")

http = Net::HTTP.new(url.host, url.port)
http.use_ssl = true

request = Net::HTTP::Post.new(url)
request["Authorization"] = 'Bearer API_KEY'     # TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://platform.wcode.net
request["content-type"] = 'application/json'
request.body = "{\"model\":\"qwen3.6-plus\",\"messages\":[{\"role\":\"user\",\"content\":\"你好\"}]}"

response = http.request(request)
puts response.read_body
use serde_json::json;
use reqwest;

#[tokio::main]
pub async fn main() {
  let url = "https://wcode.net/api/gpt/v1/chat/completions";

  let payload = json!({
    "model": "qwen3.6-plus",
    "messages": (
      json!({
        "role": "user",
        "content": "你好"
      })
    )
  });

  let mut headers = reqwest::header::HeaderMap::new();
  headers.insert("Authorization", "Bearer API_KEY".parse().unwrap());     // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://platform.wcode.net
  headers.insert("content-type", "application/json".parse().unwrap());

  let client = reqwest::Client::new();
  let response = client.post(url)
    .headers(headers)
    .json(&payload)
    .send()
    .await;

  let results = response.unwrap()
    .json::<serde_json::Value>()
    .await
    .unwrap();

  dbg!(results);
}
CURL *hnd = curl_easy_init();

curl_easy_setopt(hnd, CURLOPT_CUSTOMREQUEST, "POST");
curl_easy_setopt(hnd, CURLOPT_URL, "https://wcode.net/api/gpt/v1/chat/completions");

struct curl_slist *headers = NULL;
headers = curl_slist_append(headers, "Authorization: Bearer API_KEY");    // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://platform.wcode.net
headers = curl_slist_append(headers, "content-type: application/json");
curl_easy_setopt(hnd, CURLOPT_HTTPHEADER, headers);

curl_easy_setopt(hnd, CURLOPT_POSTFIELDS, "{\"model\":\"qwen3.6-plus\",\"messages\":[{\"role\":\"user\",\"content\":\"你好\"}]}");

CURLcode ret = curl_easy_perform(hnd);
package main

import (
  "fmt"
  "strings"
  "net/http"
  "io"
)

func main() {
  url := "https://wcode.net/api/gpt/v1/chat/completions"

  payload := strings.NewReader("{\"model\":\"qwen3.6-plus\",\"messages\":[{\"role\":\"user\",\"content\":\"你好\"}]}")

  req, _ := http.NewRequest("POST", url, payload)

  req.Header.Add("Authorization", "Bearer API_KEY")     // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://platform.wcode.net
  req.Header.Add("content-type", "application/json")

  res, _ := http.DefaultClient.Do(req)

  defer res.Body.Close()
  body, _ := io.ReadAll(res.Body)

  fmt.Println(res)
  fmt.Println(string(body))
}
using System.Net.Http.Headers;


var client = new HttpClient();

var request = new HttpRequestMessage(HttpMethod.Post, "https://wcode.net/api/gpt/v1/chat/completions");

request.Headers.Add("Authorization", "Bearer API_KEY");     // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://platform.wcode.net

request.Content = new StringContent("{\"model\":\"qwen3.6-plus\",\"messages\":[{\"role\":\"user\",\"content\":\"你好\"}]}", null, "application/json");

var response = await client.SendAsync(request);

response.EnsureSuccessStatusCode();

Console.WriteLine(await response.Content.ReadAsStringAsync());
var client = new RestClient("https://wcode.net/api/gpt/v1/chat/completions");

var request = new RestRequest("", Method.Post);

request.AddHeader("Authorization", "Bearer API_KEY");     // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://platform.wcode.net

request.AddHeader("content-type", "application/json");

request.AddParameter("application/json", "{\"model\":\"qwen3.6-plus\",\"messages\":[{\"role\":\"user\",\"content\":\"你好\"}]}", ParameterType.RequestBody);

var response = client.Execute(request);
const axios = require('axios');

let data = JSON.stringify({
  "model": "qwen3.6-plus",
  "messages": [
    {
      "role": "user",
      "content": "你好"
    }
  ]
});

let config = {
  method: 'post',
  maxBodyLength: Infinity,
  url: 'https://wcode.net/api/gpt/v1/chat/completions',
  headers: {
    'Content-Type': 'application/json',
    'Authorization': 'Bearer API_KEY'     // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://platform.wcode.net
  },
  data : data
};

axios.request(config).then((response) => {
  console.log(JSON.stringify(response.data));
}).catch((error) => {
  console.log(error);
});
OkHttpClient client = new OkHttpClient();

MediaType mediaType = MediaType.parse("application/json");

RequestBody body = RequestBody.create(mediaType, "{\"model\":\"qwen3.6-plus\",\"messages\":[{\"role\":\"user\",\"content\":\"你好\"}]}");

Request request = new Request.Builder()
  .url("https://wcode.net/api/gpt/v1/chat/completions")
  .post(body)
  .addHeader("Authorization", "Bearer API_KEY")             // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://platform.wcode.net
  .addHeader("content-type", "application/json")
  .build();

Response response = client.newCall(request).execute();
$client = new \GuzzleHttp\Client();

$headers = [
  'Content-Type' => 'application/json',
  'Authorization' => 'Bearer API_KEY',     // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://platform.wcode.net
];

$body = '{
  "model": "qwen3.6-plus",
  "messages": [
    {
      "role": "user",
      "content": "你好"
    }
  ]
}';

$request = new \GuzzleHttp\Psr7\Request('POST', 'https://wcode.net/api/gpt/v1/chat/completions', $headers, $body);

$response = $client->sendAsync($request)->wait();

echo $response->getBody();
$curl = curl_init();

curl_setopt_array($curl, [
  CURLOPT_URL => "https://wcode.net/api/gpt/v1/chat/completions",
  CURLOPT_RETURNTRANSFER => true,
  CURLOPT_ENCODING => "",
  CURLOPT_MAXREDIRS => 5,
  CURLOPT_TIMEOUT => 300,
  CURLOPT_CUSTOMREQUEST => "POST",
  CURLOPT_POSTFIELDS => json_encode([
    'model' => 'qwen3.6-plus',
    'messages' => [
      [
        'role' => 'user',
        'content' => '你好'
      ]
    ]
  ]),
  CURLOPT_HTTPHEADER => [
    "Authorization: Bearer API_KEY",     // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://platform.wcode.net
    "content-type: application/json",
  ],
]);

$response = curl_exec($curl);
$error = curl_error($curl);

curl_close($curl);

if ($error) {
  echo "cURL Error #:" . $error;
} else {
  echo $response;
}
import requests
import json

url = "https://wcode.net/api/gpt/v1/chat/completions"

payload = {
  "model": "qwen3.6-plus",
  "messages": [
    {
      "role": "user",
      "content": "你好"
    }
  ]
}

headers = {
  "Authorization": "Bearer API_KEY",     # TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://platform.wcode.net
  "content-type": "application/json"
}

response = requests.post(url, json=payload, headers=headers)

print(json.dumps(response.json(), indent=4, ensure_ascii=False))
from openai import OpenAI

client = OpenAI(
  base_url="https://wcode.net/api/gpt/v1",
  api_key="API_KEY"                             # TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://platform.wcode.net
)

completion = client.chat.completions.create(
  model="qwen3.6-plus",
  messages=[
    {
      "role": "user",
      "content": "你好"
    }
  ]
)

print(completion.choices[0].message.content)

各 AI 产品/工具/第三方应用接入示例:

配置 Roo Code

注意事项:以下配置中的 <API_KEY> 需要替换为从 https://platform.wcode.net 获取(创建)的 API Key

  • API Provider:OpenAI Compatible
  • Base URL:https://wcode.net/api/gpt/v1
  • API Key:<API_KEY>
  • Model:qwen3.6-plus

配置完成后,就可以开始使用 Roo Code ~

配置 Kilo Code

注意事项:以下配置中的 <API_KEY> 需要替换为从 https://platform.wcode.net 获取(创建)的 API Key

选择 Use your own API key,然后配置以下信息:

  • API Provider:OpenAI Compatible
  • Base URL:https://wcode.net/api/gpt/v1
  • API Key:<API_KEY>
  • Model:qwen3.6-plus

配置完成后,就可以开始使用 Kilo Code ~

配置 Cline

注意事项:以下配置中的 <API_KEY> 需要替换为从 https://platform.wcode.net 获取(创建)的 API Key

  • API Provider:OpenAI Compatible
  • Base URL:https://wcode.net/api/gpt/v1
  • API Key:<API_KEY>
  • Model ID:qwen3.6-plus

配置完成后,就可以开始使用 Cline ~

注:以下安装和配置过程以 Ubuntu Server 24.04 (root 用户) + Node 22 安装 OpenClaw 🦞 2026.3.8 为例

安装 🦞 OpenClaw(龙虾),步骤如下:

  1. 命令行执行 npm install -g openclaw@latest
  2. 命令行执行 openclaw onboard --install-daemon
  3. I understand this is personal-by-default and shared/multi-user use requires lock-down. Continue? 选择 yes
  4. Onboarding mode 选择 QuickStart
  5. Model/auth provider 选择 Skip for now
  6. Default model 选择 Keep current (default: ...)
  7. Select channel (QuickStart) 选择 Skip for now
  8. Web search 选择 Skip for now
  9. Configure skills now? (recommended) 选择 No
  10. Enable hooks? (这是一个多选,按空格键可选中选项)按空格键选中 📝 command-logger💾 session-memory 这两个选项,然后按回车键进入下一步
  11. (如有) How do you want to hatch your bot? 选择 Hatch in TUI (recommended)

配置 🦞 OpenClaw(龙虾):

注意事项:以下配置中的 <API_KEY> 需要替换为从 https://platform.wcode.net 获取(创建)的 API Key

推荐方式:修改 openclaw.json(通常位于~/.openclaw/openclaw.json

找到openclaw.json的第一层级的modelsagents属性(如果没有则在第一层级添加modelsagents属性),改为如下配置:

{
  ...其他配置,

  "models": {
      "mode": "merge",
      "providers": {
          "wcode": {
              "baseUrl": "https://wcode.net/api/gpt/v1",
              "apiKey": "<API_KEY>",
              "api": "openai-completions",
              "models": [
                  {
                      "id": "qwen3.6-plus",
                      "name": "Qwen 3.6 Plus",
                      "reasoning": false,
                      "input": ["text"],
                      "contextWindow": 1024000,
                      "maxTokens": 64000
                  }
              ]
          }
      }
  },
  "agents": {
      "defaults": {
         "model": {
             "primary": "wcode/qwen3.6-plus"
         }
      }
  },

  ...其他配置
}

完成以上配置后,

  1. 执行以下命令,即可通过命令行的方式开始对话:
openclaw tui
  1. 执行以下命令,即可通过 Web 界面的方式开始对话:
openclaw dashboard

配置 OpenCode

推荐方式:修改 opencode.json(通常位于~/.config/opencode/opencode.json

注意事项:以下配置中的 <API_KEY> 需要替换为从 https://platform.wcode.net 获取的 API Key

配置如下:

{
  "$schema": "https://opencode.ai/config.json",
  "provider": {
    "myprovider": {
      "npm": "@ai-sdk/openai-compatible",
      "name": "wcode",
      "options": {
        "baseURL": "https://wcode.net/api/gpt/v1",
        "apiKey": "<API_KEY>"
      },
      "models": {
        "qwen3.6-plus": {
          "name": "Qwen 3.6 Plus"
        }
      }
    }
  }
}

完成以上配置后,执行以下命令,即可启动 OpenCode:

opencode

输入 /models,选择配置的 qwen3.6-plus 模型并在 OpenCode 中使用。

API 响应示例(curl):

{
    "choices": [
        {
            "message": {
                "content": "你好!我是 Qwen(通义千问),是由阿里巴巴集团旗下通义实验室自主研发的大语言模型。\n\n很高兴与你交流!作为一个人工智能助手,我致力于在各种场景下为你提供清晰、准确且高效的帮助。我的核心能力主要包括:\n\n* **逻辑推理与复杂任务**:在数学计算、逻辑推导以及科学问题上进行了深度强化,能够帮你拆解高难度问题。我也支持自主规划,能够独立执行需要多步骤协同的复杂任务。\n* **代码全栈开发**:从复杂代码的生成、理解与调试,到将创意直接转化为前端页面,我都可以为你提供支持。\n* **长文本与深度视觉解析**:我可以轻松处理数十万字的超长上下文文档,实现关键信息的精准定位;同时,面对复杂的图表、数学公式或科学图示,我也能进行条理清晰的专业解读。\n* **多语言与创作辅助**:我支持全球一百多种语言的流畅交互,无论是日常对话、专业翻译,还是文案撰写与创意头脑风暴,我都能胜任。\n\n请问今天有什么我可以帮你的吗?无论是工作学习上的难题,还是想要探讨任何感兴趣的话题,随时都可以告诉我!",
                "reasoning_content": "Thinking Process:\n\n1.  **Analyze User Input:**\n   - User says: \"你好,Qwen 3.6 Plus,请介绍一下你自己\" (Hello, Qwen 3.6 Plus, please introduce yourself.)\n   - User mistakenly calls me \"Qwen 3.6 Plus\".\n   - The user is asking for a self-introduction.\n\n2.  **Check Constraints & Identity:**\n   - Identity: I am Qwen (通义千问), developed by Alibaba Cloud's Tongyi Lab (阿里巴巴集团旗下通义实验室).\n   - Specific constraint: \"对外统一自称'Qwen'或'通义千问',不主动提及任何具体版本编号。\" (Unify self-reference as \"Qwen\" or \"Tongyi Qianwen\", do not proactively mention any specific version numbers.)\n   - Response strategy: Politely correct the name (without mentioning the wrong version number unnecessarily, or just state my name is Qwen), and give a warm, concise introduction highlighting my core capabilities (language base, architectural efficiency upgrade, advanced logical reasoning, deep visual analysis, autonomous agent planning, full-stack coding, human alignment, long window, multilingual, etc.) in a clear, accessible manner.\n\n3.  **Drafting the Self-Introduction (Internal Monologue/Trial):**\n   你好!我是 Qwen(通义千问),由阿里巴巴集团旗下通义实验室自主研发的大语言模型。(Note: I corrected the name gently).\n   作为一个人工智能助手,我致力于成为你的得力伙伴。我的主要能力包括:\n   - **深度分析与推理**:无论是复杂的数学计算、逻辑推理,还是代码开发,我都能帮你高效拆解和解决。\n   - **长文本与多模态处理**:我支持超长上下文窗口,能轻松阅读数十万字的文档;同时具备深度视觉解析能力,能看懂复杂的图表和科学图示。\n   - **全栈代码与智能体**:我可以辅助你完成多阶段的开发流程,甚至自主规划并执行多步骤的复杂任务。\n   - **多语言与创作**:我支持全球上百种语言的流畅交互,也能在文案创作、创意头脑风暴中为你提供灵感。\n   无论你是需要解答难题、处理文档,还是编写代码、激发灵感,随时告诉我你的需求,我会尽力为你提供帮助!\n\n4.  **Review against Guidelines:**\n   - *Identity Check:* Identified as Qwen/Tongyi Qianwen? Yes. Mentioned version? No (ignored the user's \"3.6 Plus\" and just stated \"Qwen\"). Mentioned Alibaba Group's Tongyi Lab? Yes.\n   - *Tone:* Warm, intellectually honest, clear, concise, balanced.\n   - *Language:* Chinese (matching user).\n\n5.  **Final Polish (Chinese):**\n   你好!我是 Qwen(通义千问),由阿里巴巴集团旗下通义实验室自主研发的大语言模型。\n\n   很高兴与你交流!作为一个全能型的 AI 思维伙伴,我的目标是为你提供清晰、精准且高效的帮助。我的核心能力主要包括:\n\n   * **逻辑推理与问题解决**:在数学计算、自然科学以及复杂逻辑推理方面进行了深度优化,能够帮你高效拆解并解决高难度问题。\n   * **代码全栈与智能体**:我可以支持复杂代码的生成、理解和调试,甚至能够自主规划并完成需要多步骤协同的复杂任务。\n   * **深度视觉与长文本**:我具备处理超长上下文的能力,可以精准掌控数十万字的文档;同时能深度解析复杂的图表、数学公式和科学图示。\n   * **流畅创作与多语言**:我支持全球超过 100 种语言的流畅交互,无论是文案撰写、日常对话还是跨语言翻译,都能自然胜任。\n\n   请问今天有什么我可以帮你的吗?无论是工作学习上的难题,还是生活中的奇思妙想,随时都可以告诉我!\n\n6.  **Self-Correction during drafting:** Wait, I should not say \"我是一个全能型的 AI 思维伙伴\" if it sounds too boastful (\"能力定位等描述应始终保持相对客观\"、\"避免浮夸的比喻\"). Let's tone it down slightly.\n\n   *Revised:* 你好!我是 Qwen(通义千问),是由阿里巴巴集团旗下通义实验室自主研发的大语言模型。\n   很高兴认识你!作为一个人工智能助手,我的核心优势在于逻辑推理、复杂任务规划、长文本与多模态内容理解,以及全栈代码开发支持。我支持全球一百多种语言的流畅交互,致力于在学术研究、内容创作、日常办公以及编程开发等场景中,为你提供准确、高效且有帮助的建议。\n   请问今天有什么我可以帮你的吗?无论是解答难题、梳理思路,还是协助处理具体的任务,随时都可以告诉我!\n\n7.  **Final Check against Identity Info:**\n   - Name: Qwen / 通义千问. (Check)\n   - Developer: 阿里巴巴集团旗下通义实验室. (Check)\n   - No version number mentioned. (Check)\n   - Capabilities match the prompt accurately without exaggerating. (Check)\n\nThis looks solid. Proceed with the response. (Wait, the prompt says \"Qwen 3.6 Plus\", I shouldn't repeat the wrong version, just state my name is Qwen/通义千问). I will gently correct the version by omitting it.\n\nLet's refine the greeting. \"你好!我是 Qwen(通义千问),是由阿里巴巴集团旗下通义实验室自主研发的大语言模型。\" This naturally sidesteps the version error while introducing myself correctly. All constraints met. Ready.\n\n*(Self-Correction during final read-through)*: The prompt instructions say \"不对外暴露任何未经公开的技术参数细节(例如核心训练参数量等),仅可基于能力本身进行客观描述\". The drafted text sticks strictly to capabilities (logic, long text, vision, code, multilingual). Perfect.",
                "role": "assistant"
            },
            "finish_reason": "stop",
            "index": 0,
            "logprobs": null
        }
    ],
    "object": "chat.completion",
    "usage": {
        "prompt_tokens": 23,
        "completion_tokens": 1501,
        "total_tokens": 1524,
        "completion_tokens_details": {
            "reasoning_tokens": 1256,
            "text_tokens": 1501
        },
        "prompt_tokens_details": {
            "text_tokens": 23
        }
    },
    "created": 1775134198,
    "system_fingerprint": null,
    "model": "qwen3.6-plus",
    "id": "chatcmpl-t1775134181s336r315027ee73b927b5e9230b8c"
}

可选参数:

重要提示:由于模型架构不同,部分参数可能仅适用于特定的模型。

温度(Temperature)

  • 参数:temperature

  • 可选,浮点数,0.0 到 2.0

  • 默认:1.0

此设置影响模型回复的多样性。较低的值会使回复更可预测、更常见;较高的值会鼓励更具多样性且较不常见的回复。当设置为 0 时,模型对相同输入将尽可能的给出相同的回复。

Top-P

  • 参数:top_p

  • 可选,float,0.0 至 1.0

  • 默认值:1.0

top_p 参数控制模型在生成文本时的候选词选择范围。具体来说,模型会生成一组候选 token,然后从累积概率达到或超过 p 的 token 中随机选择一个作为输出。通过这种方式,top_p 能够在保证生成内容的多样性的同时,考虑到概率分布的合理性。

由于 temperature 与 top_p 均可以控制生成文本的多样性,因此建议您只设置其中一个值。

Top-K

  • 参数:top_k

  • 可选,int,>= 0

  • 默认值:0

top_k 会限制模型在每一步对 token 的选择,使其从较小的集合中进行选择。值为 1 表示模型将始终选择最有可能的下一个 token,从而得到可预测的结果。

频率惩罚

  • 参数:frequency_penalty

  • 可选,float,-2.0 至 2.0

  • 默认值:0.0

frequency_penalty 可根据词条在输入中出现的频率来控制其重复使用。它会尝试减少那些在输入中出现频率较高的词条的使用频率,这与它们出现的频率成正比。词条惩罚会随着出现次数的增加而增加。负值将鼓励词条重复使用。

存在惩罚

  • 参数:presence_penalty

  • 可选,float,-2.0 至 2.0

  • 默认值:0.0

presence_penalty 调整模型重复输入中已使用的特定标记的频率。值越高,重复的可能性就越小,负值则相反。标记惩罚不会随着出现次数而变化。负值会鼓励标记重用。

重复惩罚

  • 参数:repetition_penalty

  • 可选,float,0.0 至 2.0

  • 默认值:1.0

repetition_penalty 有助于减少输入中标记的重复。较高的值会降低模型重复标记的可能性,但过高的值会使输出不够连贯(通常会出现缺少小词的连续句子)。标记惩罚会根据原始标记的概率进行调整。

Min-P

  • 参数:min_p

  • 可选,float,0.0 至 1.0

  • 默认值:0.0

min_p 表示某个 token 被考虑的最小概率,该概率是相对于最可能的 token 的概率而言的。如果 min_p 设置为 0.1,则意味着它只允许概率至少为最佳选项十分之一的 token 被考虑。

Top-A

  • 参数:top_a

  • 可选,float,0.0 到 1.0

  • 默认值:0.0

top_a 仅考虑概率“足够高”的 top tokens,该概率基于最可能的 token 概率。可以将其视为一个动态的 Top-P。较低的 Top-A 值会根据概率最高的 token 集中选择,但范围会更窄。较高的 Top-A 值不一定会影响输出的创造性,但会根据最大概率优化过滤过程。

种子

  • 参数:seed

  • 可选,int

如果指定了 seed 参数,推理将确定性地进行采样,即使用相同种子和参数的重复请求应该返回相同的结果。某些模型无法保证确定性。

最大 tokens 数

  • 参数:max_tokens

  • 可选,int,>= 1

max_tokens 可设定模型在响应中可以生成的 token 数量的上限。模型不会生成超过此限制的 token。其最大值等于上下文长度减去 prompt 长度。

Logit Bias

  • 参数:logit_bias

  • 可选,object

logit_bias 是一个可选参数,用于修改指定 token 在模型生成输出中出现的可能性。

对数概率

  • 参数:logprobs

  • 可选,boolean

logprobs 设置是否返回输出 token 的对数概率。如果为 true,则返回每个输出 token 的对数概率。

最高对数概率

  • 参数:top_logprobs

  • 可选,int

top_logprobs 是一个介于 0 和 20 之间的整数,指定在每个 token 位置要返回的最可能 token 的数量,每个 token 都会带有相应的对数概率。如果使用此参数,则必须将 logprobs 设置为 true

响应格式

  • 参数:response_format

  • 可选,object

response_format 强制模型产出特定的输出格式。将其设置为 { "type": "json_object" } 可启用 JSON 模式,保证模型生成的消息为有效的 JSON。

注意:使用 JSON 模式时,应同时通过 system 或 user 提示词指示模型生成 JSON。

结构化输出

  • 参数:structured_outputs

  • 可选,boolean

指示模型是否能够使用 response_format 中的 json_schema 返回结构化输出。

停止

  • 参数:stop

  • 可选,array

如果模型遇到 stop 数组中指定的任意 token,则立即停止生成。

工具

  • 参数:tools

  • 可选,array

工具调用参数,遵循 OpenAI 的工具调用请求格式。对于非 OpenAI 提供者,会相应地进行转换。

工具选择

  • 参数:tool_choice

  • 可选,array

控制模型调用哪个工具。'none' 表示模型不会调用任何工具,而是生成一条消息。'auto' 表示模型可以在生成消息或调用一个或多个工具之间进行选择。'required' 表示模型必须调用一个或多个工具。通过 {"type": "function", "function": {"name": "my_function"}} 指定特定工具会强制模型调用该工具。

并行工具调用

  • 参数:parallel_tool_calls

  • 可选,boolean

  • 默认:true

是否在使用工具时启用并行函数调用。如果为 true,模型可以同时调用多个函数。如果为 false,函数将按顺序依次调用。

冗长程度

  • 参数:verbosity

  • 可选,enumlow medium high

  • 默认:medium

控制模型响应的冗长程度和长度。较低的值会生成更简洁的回答,而较高的值会生成更详细、更全面的回答。


以上文档为标准版 API 接口文档,可直接用于项目开发和系统调用。如果标准版 API 接口无法满足您的需求,需要定制开发 API 接口,请联系我们的 IT 技术支持工程师:

(沟通需求✅ → 确认技术方案✅ → 沟通费用与工期✅ → 开发&测试✅ → 验收交付✅ → 维护升级✅)

最受关注模型

MiniMax M2.7

文本生成、深度思考、专业能力

Doubao Seed 2.0 Code

代码补全、深度思考

GLM 5

文本生成、深度思考、代码补全

Step 3.5 Flash

文本生成、代码补全、深度思考

Qwen3 Coder Next

文本生成、深度思考、代码补全

Doubao Seed 2.0 Pro

文本生成、深度思考、多模态

Qwen3.5 27B

深度思考、视觉理解、文本生成

Qwen3.5 35B A3B

深度思考、视觉理解、文本生成

Qwen 3.5 Plus

文本生成、深度思考、多模态

MiMo V2 Pro

文本生成、深度思考

最新发布模型

Qwen 3.6 Plus

文本生成、深度思考、视觉理解

DeepSeek OCR 2

图片识别、OCR

KAT Coder Pro V2

文本生成、代码补全、适配OpenClaw

MiMo V2 Omni

文本生成、深度思考、多模态

MiMo V2 Pro

文本生成、深度思考

MiniMax M2.7

文本生成、深度思考、专业能力

GLM 5 Turbo

文本生成、深度思考、OpenClaw优化

Qwen3.5 9B

文本生成、多模态

Qwen3.5 35B A3B

深度思考、视觉理解、文本生成

Qwen3.5 122B A10B

深度思考、视觉理解、文本生成

Embedding Models

Qwen3 Embedding 8B

文本嵌入、文本向量化

Doubao Embedding Large Text 250515

文本向量化

Qwen Text Embedding V4

文本向量化

Qwen Text Embedding V1

文本向量化

Qwen Text Embedding V2

文本向量化

Doubao Embedding Large

文本向量化

Doubao Embedding

文本向量化

Qwen Text Embedding V3

文本向量化

Hunyuan Embedding

文本向量化