DeepSeek R1 0528 模型介绍、API 接口 & 代码示例

deepseek/deepseek-r1-0528

DeepSeek R1 0528 是深度求索(DeepSeek)在2025年5月28日发布的一次“小版本升级”。这次升级虽然低调,但通过在后训练阶段投入更多算力来深化模型的“思维链”,实现了推理、编程、写作等核心能力的显著提升,综合性能已接近国际顶尖模型(如 OpenAI o3 和 Gemini 2.5 Pro)的水平。

模型 ID
deepseek/deepseek-r1-0528
模型系列
DeepSeek
更新日期
模型能力
文本生成、深度思考
上下文长度
128 K
量化方式 / 数据格式
fp8
模型价格(每 1000 tokens 输入)
¥ 0.005
模型价格(每 1000 tokens 输出)
¥ 0.02

DeepSeek R1 0528 模型介绍:

DeepSeek R1 0528 是深度求索(DeepSeek)在2025年5月28日发布的一次“小版本升级”。这次升级虽然低调,但通过在后训练阶段投入更多算力来深化模型的“思维链”,实现了推理、编程、写作等核心能力的显著提升,综合性能已接近国际顶尖模型(如 OpenAI o3 和 Gemini 2.5 Pro)的水平。

🚀 关键特性与提升:

  1. 🧠 推理能力质变
  • 数学能力飞跃:在 AIME 2025 数学竞赛测试中,DeepSeek-R1-0528 的准确率从旧版的 70% 大幅提升至 87.5%,超越了人类选手的平均水平(75%)。
  • 深度思考显著增强:这一提升得益于模型在推理时使用了更长的“思维链”。在解决复杂题目时,思考所用的平均 token 数从 12K 增加到了 23K,增幅高达 92%。
  • 长时任务处理:模型能够处理需要 30-60 分钟深度推理的复杂任务,如数学证明或逻辑链拆解。
  1. 💻 编程能力跻身国际一线
  • 代码生成能力显著提升:新版模型可一次性生成 1000+ 行且无 bug 的代码,支持动态交互、物理模拟等复杂功能。
  • 编程基准逼近顶尖水平:在 LiveCodeBench 等代码评估基准上,DeepSeek-R1-0528 已接近甚至超越了许多顶尖模型,代码能力在国内模型中处于领先地位。

此外,DeepSeek 还将 R1-0528 强大的推理能力通过蒸馏技术应用于一个更轻量的模型——DeepSeek-R1-0528-Qwen3-8B。这个仅 8B 参数的小模型,在 AIME 2024 测试中的表现超越了 Qwen3-8B(+10%),甚至与 235B 参数量的 Qwen3-235B 旗鼓相当

✨ 功能与能力更新:

  1. 🔍 可靠性增强
  • “幻觉”问题大幅改善:在改写润色、总结摘要、阅读理解等场景中,模型的幻觉率降低了 45~50%,有效提升了输出的准确性和可靠性。
  1. 🎨 创意写作优化
  • 文风与结构升级:针对议论文、小说、散文等文体进行了专门优化。现在,模型能够生成篇幅更长、结构更完整、内容更连贯的长篇作品,并且写作风格更贴近人类偏好。
  1. 🔧 开发者功能增强
  • 支持 Function Calling 和 JSON 输出:新增 Function Calling 功能支持工具调用,同时支持 JSON 格式的结构化输出(注意:工具调用不在 Thinking 阶段进行),这使得模型能力可与 OpenAI o1-high 相当,更易于集成到开发者的应用流程中。
  • 上下文长度:官方 API 和应用的上下文窗口为 64K,但许多第三方平台和开源部署方案支持最长 128K tokens 的超长上下文处理能力。

🏗️ 架构与可用性:

🗄️ 模型架构与量化部署 DeepSeek-R1-0528 是一个拥有 685B 参数(约 6850 亿)的混合专家(MoE)模型。为了在消费级硬件上体验这个庞大模型,可借助 Unsloth 团队的动态量化技术压缩模型体积:

配置类型 存储需求 内存需求 速度参考 备注
完整模型 约 715 GB 极高,需专业服务器 极高 未经量化的原始模型
极低量化 (1.66-1.78-bit) 约 162-185 GB 最低 20 GB RAM(可运行,速度慢) 约 1 token/s (无GPU) 官方推荐配置:64 GB RAM 或更高以获得更好体验
平衡量化 (2.4-2.7-bit) 介于高低量化之间 建议 180 GB 以上统一内存或RAM+VRAM总和 5+ tokens/s 推荐,在精度和性能间取得良好平衡
蒸馏版 (8B 参数) 约 80 GB 最低 20 GB RAM 3.5 tokens/s (移动端) 或更高 适合低配设备,甚至在手机或平板上运行

量化会轻微损失精度。官方建议用户根据硬件条件选择合适的版本。

📊 与顶尖模型的对比:

以下基准测试数据展示了 R1-0528 在推理任务上的惊人提升(所有分数为 pass@1):

基准测试 (Benchmark) DeepSeek-R1 DeepSeek-R1-0528 OpenAI-o3 Gemini-2.5-Pro
AIME 2024 (数学) 79.8 91.4 91.6 90.8
AIME 2025 (数学) 70.0 87.5 88.9 83.0
GPQA Diamond (科学) 71.5 81.0 83.3 83.0
LiveCodeBench (代码) 63.5 73.3 77.3 71.8

API 接口地址:

  • Chat Completions API:

    https://wcode.net/api/gpt/v1/chat/completions

此 API 接口兼容 OpenAI 的 API 接口规范,可直接使用 OpenAI 的 SDK 来调用各个模型。仅需替换以下配置即可:

  1. base_url 替换为 https://wcode.net/api/gpt/v1
  2. api_key 替换为从 https://platform.wcode.net 获取到的 API Key

具体可参考下方的各编程语言代码示例中的 OpenAI SDK 调用示例。

请求方法:

POST

各编程语言代码示例:

# TODO: 以下代码中的 API_KEY 需要替换,获取 API Key 入口:https://platform.wcode.net
curl --request POST 'https://wcode.net/api/gpt/v1/chat/completions' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer API_KEY' \
--data '{
    "model": "deepseek/deepseek-r1-0528",
    "messages": [
        {
            "role": "user",
            "content": "你好"
        }
    ]
}'
import Foundation

let headers = [
  "Authorization": "Bearer API_KEY",     // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://platform.wcode.net
  "content-type": "application/json"
]
let parameters = [
  "model": "deepseek/deepseek-r1-0528",
  "messages": [
    [
      "role": "user",
      "content": "你好"
    ]
  ]
] as [String : Any]

let postData = JSONSerialization.data(withJSONObject: parameters, options: [])

let request = NSMutableURLRequest(url: NSURL(string: "https://wcode.net/api/gpt/v1/chat/completions")! as URL,
                                        cachePolicy: .useProtocolCachePolicy,
                                    timeoutInterval: 60.0)
request.httpMethod = "POST"
request.allHTTPHeaderFields = headers
request.httpBody = postData as Data

let session = URLSession.shared
let dataTask = session.dataTask(with: request as URLRequest, completionHandler: { (data, response, error) -> Void in
  if (error != nil) {
    print(error as Any)
  } else {
    let httpResponse = response as? HTTPURLResponse
    print(httpResponse)
  }
})

dataTask.resume()
var headers = {
  'Content-Type': 'application/json',
  'Authorization': 'Bearer API_KEY'     // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://platform.wcode.net
};
var request = http.Request('POST', Uri.parse('https://wcode.net/api/gpt/v1/chat/completions'));
request.body = json.encode({
  "model": "deepseek/deepseek-r1-0528",
  "messages": [
    {
      "role": "user",
      "content": "你好"
    }
  ]
});
request.headers.addAll(headers);

http.StreamedResponse response = await request.send();

if (response.statusCode == 200) {
  print(await response.stream.bytesToString());
}
else {
  print(response.reasonPhrase);
}
require 'uri'
require 'net/http'

url = URI("https://wcode.net/api/gpt/v1/chat/completions")

http = Net::HTTP.new(url.host, url.port)
http.use_ssl = true

request = Net::HTTP::Post.new(url)
request["Authorization"] = 'Bearer API_KEY'     # TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://platform.wcode.net
request["content-type"] = 'application/json'
request.body = "{\"model\":\"deepseek/deepseek-r1-0528\",\"messages\":[{\"role\":\"user\",\"content\":\"你好\"}]}"

response = http.request(request)
puts response.read_body
use serde_json::json;
use reqwest;

#[tokio::main]
pub async fn main() {
  let url = "https://wcode.net/api/gpt/v1/chat/completions";

  let payload = json!({
    "model": "deepseek/deepseek-r1-0528",
    "messages": (
      json!({
        "role": "user",
        "content": "你好"
      })
    )
  });

  let mut headers = reqwest::header::HeaderMap::new();
  headers.insert("Authorization", "Bearer API_KEY".parse().unwrap());     // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://platform.wcode.net
  headers.insert("content-type", "application/json".parse().unwrap());

  let client = reqwest::Client::new();
  let response = client.post(url)
    .headers(headers)
    .json(&payload)
    .send()
    .await;

  let results = response.unwrap()
    .json::<serde_json::Value>()
    .await
    .unwrap();

  dbg!(results);
}
CURL *hnd = curl_easy_init();

curl_easy_setopt(hnd, CURLOPT_CUSTOMREQUEST, "POST");
curl_easy_setopt(hnd, CURLOPT_URL, "https://wcode.net/api/gpt/v1/chat/completions");

struct curl_slist *headers = NULL;
headers = curl_slist_append(headers, "Authorization: Bearer API_KEY");    // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://platform.wcode.net
headers = curl_slist_append(headers, "content-type: application/json");
curl_easy_setopt(hnd, CURLOPT_HTTPHEADER, headers);

curl_easy_setopt(hnd, CURLOPT_POSTFIELDS, "{\"model\":\"deepseek/deepseek-r1-0528\",\"messages\":[{\"role\":\"user\",\"content\":\"你好\"}]}");

CURLcode ret = curl_easy_perform(hnd);
package main

import (
  "fmt"
  "strings"
  "net/http"
  "io"
)

func main() {
  url := "https://wcode.net/api/gpt/v1/chat/completions"

  payload := strings.NewReader("{\"model\":\"deepseek/deepseek-r1-0528\",\"messages\":[{\"role\":\"user\",\"content\":\"你好\"}]}")

  req, _ := http.NewRequest("POST", url, payload)

  req.Header.Add("Authorization", "Bearer API_KEY")     // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://platform.wcode.net
  req.Header.Add("content-type", "application/json")

  res, _ := http.DefaultClient.Do(req)

  defer res.Body.Close()
  body, _ := io.ReadAll(res.Body)

  fmt.Println(res)
  fmt.Println(string(body))
}
using System.Net.Http.Headers;


var client = new HttpClient();

var request = new HttpRequestMessage(HttpMethod.Post, "https://wcode.net/api/gpt/v1/chat/completions");

request.Headers.Add("Authorization", "Bearer API_KEY");     // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://platform.wcode.net

request.Content = new StringContent("{\"model\":\"deepseek/deepseek-r1-0528\",\"messages\":[{\"role\":\"user\",\"content\":\"你好\"}]}", null, "application/json");

var response = await client.SendAsync(request);

response.EnsureSuccessStatusCode();

Console.WriteLine(await response.Content.ReadAsStringAsync());
var client = new RestClient("https://wcode.net/api/gpt/v1/chat/completions");

var request = new RestRequest("", Method.Post);

request.AddHeader("Authorization", "Bearer API_KEY");     // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://platform.wcode.net

request.AddHeader("content-type", "application/json");

request.AddParameter("application/json", "{\"model\":\"deepseek/deepseek-r1-0528\",\"messages\":[{\"role\":\"user\",\"content\":\"你好\"}]}", ParameterType.RequestBody);

var response = client.Execute(request);
const axios = require('axios');

let data = JSON.stringify({
  "model": "deepseek/deepseek-r1-0528",
  "messages": [
    {
      "role": "user",
      "content": "你好"
    }
  ]
});

let config = {
  method: 'post',
  maxBodyLength: Infinity,
  url: 'https://wcode.net/api/gpt/v1/chat/completions',
  headers: {
    'Content-Type': 'application/json',
    'Authorization': 'Bearer API_KEY'     // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://platform.wcode.net
  },
  data : data
};

axios.request(config).then((response) => {
  console.log(JSON.stringify(response.data));
}).catch((error) => {
  console.log(error);
});
OkHttpClient client = new OkHttpClient();

MediaType mediaType = MediaType.parse("application/json");

RequestBody body = RequestBody.create(mediaType, "{\"model\":\"deepseek/deepseek-r1-0528\",\"messages\":[{\"role\":\"user\",\"content\":\"你好\"}]}");

Request request = new Request.Builder()
  .url("https://wcode.net/api/gpt/v1/chat/completions")
  .post(body)
  .addHeader("Authorization", "Bearer API_KEY")             // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://platform.wcode.net
  .addHeader("content-type", "application/json")
  .build();

Response response = client.newCall(request).execute();
$client = new \GuzzleHttp\Client();

$headers = [
  'Content-Type' => 'application/json',
  'Authorization' => 'Bearer API_KEY',     // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://platform.wcode.net
];

$body = '{
  "model": "deepseek/deepseek-r1-0528",
  "messages": [
    {
      "role": "user",
      "content": "你好"
    }
  ]
}';

$request = new \GuzzleHttp\Psr7\Request('POST', 'https://wcode.net/api/gpt/v1/chat/completions', $headers, $body);

$response = $client->sendAsync($request)->wait();

echo $response->getBody();
$curl = curl_init();

curl_setopt_array($curl, [
  CURLOPT_URL => "https://wcode.net/api/gpt/v1/chat/completions",
  CURLOPT_RETURNTRANSFER => true,
  CURLOPT_ENCODING => "",
  CURLOPT_MAXREDIRS => 5,
  CURLOPT_TIMEOUT => 300,
  CURLOPT_CUSTOMREQUEST => "POST",
  CURLOPT_POSTFIELDS => json_encode([
    'model' => 'deepseek/deepseek-r1-0528',
    'messages' => [
      [
        'role' => 'user',
        'content' => '你好'
      ]
    ]
  ]),
  CURLOPT_HTTPHEADER => [
    "Authorization: Bearer API_KEY",     // TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://platform.wcode.net
    "content-type: application/json",
  ],
]);

$response = curl_exec($curl);
$error = curl_error($curl);

curl_close($curl);

if ($error) {
  echo "cURL Error #:" . $error;
} else {
  echo $response;
}
import requests
import json

url = "https://wcode.net/api/gpt/v1/chat/completions"

payload = {
  "model": "deepseek/deepseek-r1-0528",
  "messages": [
    {
      "role": "user",
      "content": "你好"
    }
  ]
}

headers = {
  "Authorization": "Bearer API_KEY",     # TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://platform.wcode.net
  "content-type": "application/json"
}

response = requests.post(url, json=payload, headers=headers)

print(json.dumps(response.json(), indent=4, ensure_ascii=False))
from openai import OpenAI

client = OpenAI(
  base_url="https://wcode.net/api/gpt/v1",
  api_key="API_KEY"                             # TODO: 这里的 API_KEY 需要替换,获取 API Key 入口:https://platform.wcode.net
)

completion = client.chat.completions.create(
  model="deepseek/deepseek-r1-0528",
  messages=[
    {
      "role": "user",
      "content": "你好"
    }
  ]
)

print(completion.choices[0].message.content)

各 AI 产品/工具/第三方应用接入示例:

配置 Hermes Agent 使用 DeepSeek R1 0528 模型

注意事项:以下配置中的 <API_KEY> 需要替换为从 https://platform.wcode.net 获取(创建)的 API Key

方式一:交互式配置

在命令行输入 hermes model,然后选择 Custom endpoint 选项,根据交互式命令引导,分别配置以下信息:

  • API base URL:https://wcode.net/api/gpt/v1
  • API Key:<API_KEY>
  • Model:deepseek/deepseek-r1-0528

方式二:手动配置

修改 config.yaml(通常位于~/.hermes/config.yaml

model:
  default: "deepseek/deepseek-r1-0528"
  provider: custom
  base_url: "https://wcode.net/api/gpt/v1"
  api_key: "<API_KEY>"
  context_length: 128000

配置完成后,就可以开始使用 Hermes Agent ~

配置 Roo Code 使用 DeepSeek R1 0528 模型

注意事项:以下配置中的 <API_KEY> 需要替换为从 https://platform.wcode.net 获取(创建)的 API Key

  • API Provider:OpenAI Compatible
  • Base URL:https://wcode.net/api/gpt/v1
  • API Key:<API_KEY>
  • Model:deepseek/deepseek-r1-0528

配置完成后,就可以开始使用 Roo Code ~

配置 Kilo Code 使用 DeepSeek R1 0528 模型

注意事项:以下配置中的 <API_KEY> 需要替换为从 https://platform.wcode.net 获取(创建)的 API Key

选择 Use your own API key,然后配置以下信息:

  • API Provider:OpenAI Compatible
  • Base URL:https://wcode.net/api/gpt/v1
  • API Key:<API_KEY>
  • Model:deepseek/deepseek-r1-0528

配置完成后,就可以开始使用 Kilo Code ~

配置 Cline 使用 DeepSeek R1 0528 模型

注意事项:以下配置中的 <API_KEY> 需要替换为从 https://platform.wcode.net 获取(创建)的 API Key

  • API Provider:OpenAI Compatible
  • Base URL:https://wcode.net/api/gpt/v1
  • API Key:<API_KEY>
  • Model ID:deepseek/deepseek-r1-0528

配置完成后,就可以开始使用 Cline ~

注:以下安装和配置过程以 Ubuntu Server 24.04 (root 用户) + Node 22 安装 OpenClaw 🦞 2026.3.8 为例

安装 🦞 OpenClaw(龙虾),步骤如下:

  1. 命令行执行 npm install -g openclaw@latest
  2. 命令行执行 openclaw onboard --install-daemon
  3. I understand this is personal-by-default and shared/multi-user use requires lock-down. Continue? 选择 yes
  4. Onboarding mode 选择 QuickStart
  5. Model/auth provider 选择 Skip for now
  6. Default model 选择 Keep current (default: ...)
  7. Select channel (QuickStart) 选择 Skip for now
  8. Web search 选择 Skip for now
  9. Configure skills now? (recommended) 选择 No
  10. Enable hooks? (这是一个多选,按空格键可选中选项)按空格键选中 📝 command-logger💾 session-memory 这两个选项,然后按回车键进入下一步
  11. (如有) How do you want to hatch your bot? 选择 Hatch in TUI (recommended)

配置 🦞 OpenClaw(龙虾)使用 DeepSeek R1 0528 模型:

注意事项:以下配置中的 <API_KEY> 需要替换为从 https://platform.wcode.net 获取(创建)的 API Key

推荐方式:修改 openclaw.json(通常位于~/.openclaw/openclaw.json

找到openclaw.json的第一层级的modelsagents属性(如果没有则在第一层级添加modelsagents属性),改为如下配置:

{
  ...其他配置,

  "models": {
      "mode": "merge",
      "providers": {
          "wcode": {
              "baseUrl": "https://wcode.net/api/gpt/v1",
              "apiKey": "<API_KEY>",
              "api": "openai-completions",
              "models": [
                  {
                      "id": "deepseek/deepseek-r1-0528",
                      "name": "DeepSeek R1 0528",
                      "reasoning": false,
                      "input": ["text"],
                      "contextWindow": 128000,
                      "maxTokens": 8192
                  }
              ]
          }
      }
  },
  "agents": {
      "defaults": {
         "model": {
             "primary": "wcode/deepseek/deepseek-r1-0528"
         }
      }
  },

  ...其他配置
}

完成以上配置后,

  1. 执行以下命令,即可通过命令行的方式开始对话:
openclaw tui
  1. 执行以下命令,即可通过 Web 界面的方式开始对话:
openclaw dashboard

配置 OpenCode 使用 DeepSeek R1 0528 模型

推荐方式:修改 opencode.json(通常位于~/.config/opencode/opencode.json

注意事项:以下配置中的 <API_KEY> 需要替换为从 https://platform.wcode.net 获取的 API Key

配置如下:

{
  "$schema": "https://opencode.ai/config.json",
  "provider": {
    "myprovider": {
      "npm": "@ai-sdk/openai-compatible",
      "name": "wcode",
      "options": {
        "baseURL": "https://wcode.net/api/gpt/v1",
        "apiKey": "<API_KEY>"
      },
      "models": {
        "deepseek/deepseek-r1-0528": {
          "name": "DeepSeek R1 0528"
        }
      }
    }
  }
}

完成以上配置后,执行以下命令,即可启动 OpenCode:

opencode

输入 /models,选择配置的 deepseek/deepseek-r1-0528 模型并在 OpenCode 中使用。

API 响应示例(curl):

{
    "id": "chatcmpl-t1759079257s2r057d5228520cef7e62390003",
    "model": "deepseek/deepseek-r1-0528",
    "object": "chat.completion",
    "created": 1759079257,
    "choices": [
        {
            "logprobs": null,
            "finish_reason": "stop",
            "native_finish_reason": "stop",
            "index": 0,
            "message": {
                "role": "assistant",
                "content": "你好呀!👋我是 **DeepSeek-R1**,由中国的「深度求索」团队开发的一款智能助手。我的使命就是用最清晰、最贴心的方式,陪你探索知识、解决问题~下面是我的一些小介绍:\n\n---\n\n### 🌟我是谁?\n🔹 **名字**:DeepSeek-R1(你们也可以叫我“小深”或者“R1”~)  \n🔹 **能力**:擅长各种形式的**文字推理、写作、翻译、编程、文档分析、学术研究、生活指南**等等,只要你用文字问我,我都尽力帮你!  \n🔹 **储存知识范围**:截止到 **2024年7月** 的信息我都很了解~无论是时事历史、科技趋势、还是生活百科,我都不在话下!(不过我暂时还“看不到”图片或视频哦~)  \n🔹 **支持文件上传**:可以上传 PDF、Word、Excel、PPT、TXT,我都能从中找出重点、总结提炼!\n\n---\n\n### 🎁我的特点是?\n✅ **超长上下文记忆**(最高可达128K上下文长度),理解长文像读小说一样轻松  \n✅ **支持中文非常地道自然**,无论是写作、改文案还是当聊天搭子都没问题  \n✅ **纯免费使用**(目前完全免费、无隐藏收费功能)  \n✅ **不联网,隐私有保障** 🛡️ 你不用担心内容外泄\n\n---\n\n### 🧠我能帮你做什么?\n- ✍️ **写作类**:起草文章、润色文案、策划活动、写求职信等等  \n- 📚 **学习类**:解题讲解、学科知识、考研读博、论文写提纲  \n- 👩‍💻 **专业类**:编程辅助、产品方案、运营策划、法律财税咨询  \n- 💡 **日常类**:行程规划、健康建议、健身计划、兴趣培养……  \n- 🧾 **文档类**:提取数据、总结重点、一键翻译、表格处理\n\n---\n\n无论你今天有什么烦恼、问题、好奇的想法,尽管告诉我吧~我一直在这里等你!😊  \n👉 **随时都可以“拍拍”我开头,我们聊一会儿~**",
                "refusal": null,
                "reasoning": "嗯,用户发来一句简单的问候和自我介绍请求。这可能是初次接触的新用户,也可能是想确认我的功能边界的老用户。  \n\n用户用“你好”开头显得很礼貌,但问题非常开放,没有具体场景线索。ta可能处于以下状态之一:  \n1. 刚打开聊天框想测试基础功能  \n2. 需要解决实际问题但不知从何问起  \n3. 纯粹好奇AI助手的运作方式  \n  \n按最典型的场景处理:优先清晰定义身份和能力边界,避免让用户产生“万能助手”的误解。需要强调三点:  \n- 免费属性(很多人会担心收费陷阱)  \n- 核心能力(文本相关,避开图像/语音等误导)  \n- 局限性(数据截止日期和实时性说明)  \n  \n用表情符号调节机械感很必要,毕竟纯文字回复容易显得冰冷。最后用开放式提问收尾,把主动权交还给用户——如果ta是测试型用户,能立刻提出具体需求;如果只是随便看看,也不会有压力。  \n  \n啊,差点忘了标注支持128K长文本这个特色功能,这对需要处理文档的用户会是关键点。\n"
            }
        }
    ],
    "usage": {
        "prompt_tokens": 11,
        "completion_tokens": 698,
        "total_tokens": 709
    }
}

可选参数:

重要提示:由于模型架构不同,部分参数可能仅适用于特定的模型。

温度(Temperature)

  • 参数:temperature

  • 可选,浮点数,0.0 到 2.0

  • 默认:1.0

此设置影响模型回复的多样性。较低的值会使回复更可预测、更常见;较高的值会鼓励更具多样性且较不常见的回复。当设置为 0 时,模型对相同输入将尽可能的给出相同的回复。

Top-P

  • 参数:top_p

  • 可选,float,0.0 至 1.0

  • 默认值:1.0

top_p 参数控制模型在生成文本时的候选词选择范围。具体来说,模型会生成一组候选 token,然后从累积概率达到或超过 p 的 token 中随机选择一个作为输出。通过这种方式,top_p 能够在保证生成内容的多样性的同时,考虑到概率分布的合理性。

由于 temperature 与 top_p 均可以控制生成文本的多样性,因此建议您只设置其中一个值。

Top-K

  • 参数:top_k

  • 可选,int,>= 0

  • 默认值:0

top_k 会限制模型在每一步对 token 的选择,使其从较小的集合中进行选择。值为 1 表示模型将始终选择最有可能的下一个 token,从而得到可预测的结果。

频率惩罚

  • 参数:frequency_penalty

  • 可选,float,-2.0 至 2.0

  • 默认值:0.0

frequency_penalty 可根据词条在输入中出现的频率来控制其重复使用。它会尝试减少那些在输入中出现频率较高的词条的使用频率,这与它们出现的频率成正比。词条惩罚会随着出现次数的增加而增加。负值将鼓励词条重复使用。

存在惩罚

  • 参数:presence_penalty

  • 可选,float,-2.0 至 2.0

  • 默认值:0.0

presence_penalty 调整模型重复输入中已使用的特定标记的频率。值越高,重复的可能性就越小,负值则相反。标记惩罚不会随着出现次数而变化。负值会鼓励标记重用。

重复惩罚

  • 参数:repetition_penalty

  • 可选,float,0.0 至 2.0

  • 默认值:1.0

repetition_penalty 有助于减少输入中标记的重复。较高的值会降低模型重复标记的可能性,但过高的值会使输出不够连贯(通常会出现缺少小词的连续句子)。标记惩罚会根据原始标记的概率进行调整。

Min-P

  • 参数:min_p

  • 可选,float,0.0 至 1.0

  • 默认值:0.0

min_p 表示某个 token 被考虑的最小概率,该概率是相对于最可能的 token 的概率而言的。如果 min_p 设置为 0.1,则意味着它只允许概率至少为最佳选项十分之一的 token 被考虑。

Top-A

  • 参数:top_a

  • 可选,float,0.0 到 1.0

  • 默认值:0.0

top_a 仅考虑概率“足够高”的 top tokens,该概率基于最可能的 token 概率。可以将其视为一个动态的 Top-P。较低的 Top-A 值会根据概率最高的 token 集中选择,但范围会更窄。较高的 Top-A 值不一定会影响输出的创造性,但会根据最大概率优化过滤过程。

种子

  • 参数:seed

  • 可选,int

如果指定了 seed 参数,推理将确定性地进行采样,即使用相同种子和参数的重复请求应该返回相同的结果。某些模型无法保证确定性。

最大 tokens 数

  • 参数:max_tokens

  • 可选,int,>= 1

max_tokens 可设定模型在响应中可以生成的 token 数量的上限。模型不会生成超过此限制的 token。其最大值等于上下文长度减去 prompt 长度。

Logit Bias

  • 参数:logit_bias

  • 可选,object

logit_bias 是一个可选参数,用于修改指定 token 在模型生成输出中出现的可能性。

对数概率

  • 参数:logprobs

  • 可选,boolean

logprobs 设置是否返回输出 token 的对数概率。如果为 true,则返回每个输出 token 的对数概率。

最高对数概率

  • 参数:top_logprobs

  • 可选,int

top_logprobs 是一个介于 0 和 20 之间的整数,指定在每个 token 位置要返回的最可能 token 的数量,每个 token 都会带有相应的对数概率。如果使用此参数,则必须将 logprobs 设置为 true

响应格式

  • 参数:response_format

  • 可选,object

response_format 强制模型产出特定的输出格式。将其设置为 { "type": "json_object" } 可启用 JSON 模式,保证模型生成的消息为有效的 JSON。

注意:使用 JSON 模式时,应同时通过 system 或 user 提示词指示模型生成 JSON。

结构化输出

  • 参数:structured_outputs

  • 可选,boolean

指示模型是否能够使用 response_format 中的 json_schema 返回结构化输出。

停止

  • 参数:stop

  • 可选,array

如果模型遇到 stop 数组中指定的任意 token,则立即停止生成。

工具

  • 参数:tools

  • 可选,array

工具调用参数,遵循 OpenAI 的工具调用请求格式。对于非 OpenAI 提供者,会相应地进行转换。

工具选择

  • 参数:tool_choice

  • 可选,array

控制模型调用哪个工具。'none' 表示模型不会调用任何工具,而是生成一条消息。'auto' 表示模型可以在生成消息或调用一个或多个工具之间进行选择。'required' 表示模型必须调用一个或多个工具。通过 {"type": "function", "function": {"name": "my_function"}} 指定特定工具会强制模型调用该工具。

并行工具调用

  • 参数:parallel_tool_calls

  • 可选,boolean

  • 默认:true

是否在使用工具时启用并行函数调用。如果为 true,模型可以同时调用多个函数。如果为 false,函数将按顺序依次调用。

冗长程度

  • 参数:verbosity

  • 可选,enumlow medium high

  • 默认:medium

控制模型响应的冗长程度和长度。较低的值会生成更简洁的回答,而较高的值会生成更详细、更全面的回答。


以上文档为标准版 API 接口文档,可直接用于项目开发和系统调用。如果标准版 API 接口无法满足您的需求,需要定制开发 API 接口,请联系我们的 IT 技术支持工程师:

(沟通需求✅ → 确认技术方案✅ → 沟通费用与工期✅ → 开发&测试✅ → 验收交付✅ → 维护升级✅)

最受关注模型

DeepSeek V4 Pro

文本生成、深度思考

DeepSeek V4 Flash

文本生成、深度思考

MiniMax M2.7

文本生成、深度思考、专业能力

Qwen 3.6 Plus

文本生成、深度思考、视觉理解

Doubao Seed 2.0 Code

代码补全、深度思考

Doubao Seed 2.0 Pro

文本生成、深度思考、多模态

DeepSeek OCR 2

图片识别、OCR

Kimi K2.6

文本生成、深度思考、工具调用

Tencent Hunyuan Hy3 Preview

文本生成、深度思考

MiMo V2 Pro

文本生成、深度思考

最新发布模型

Doubao Seed 2.0 Mini

文本生成、深度思考、多模态

Doubao Seed 2.0 Lite

文本生成、深度思考、多模态

XiaoMi MiMo V2.5

文本生成、深度思考

XiaoMi MiMo V2.5 Pro

文本生成、深度思考

DeepSeek V4 Pro

文本生成、深度思考

DeepSeek V4 Flash

文本生成、深度思考

Qwen3.6 27B

文本生成、深度思考、视觉识别

Tencent Hunyuan Hy3 Preview

文本生成、深度思考

Qwen3.6 Max Preview

文本生成、深度思考

Kimi K2.6

文本生成、深度思考、工具调用

Embedding Models

GLM Embedding 3

文本向量化

Qwen3 Embedding 8B

文本嵌入、文本向量化

Doubao Embedding Large Text 250515

文本向量化

Qwen Text Embedding V4

文本向量化

Qwen Text Embedding V1

文本向量化

Qwen Text Embedding V2

文本向量化

Doubao Embedding Large

文本向量化

Doubao Embedding

文本向量化

Qwen Text Embedding V3

文本向量化

Hunyuan Embedding

文本向量化