DeepSeek 系列大模型 API 接口

DeepSeek-R1 在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩 OpenAI o1 正式版。DeepSeek-V3 多项评测成绩超越了 Qwen2.5-72B 和 Llama-3.1-405B 等其他开源模型,并在性能上和世界顶尖的闭源模型 GPT-4o 以及 Claude-3.5-Sonnet 不分伯仲。


此文档为标准版 API 接口文档,可直接用于项目开发和系统调用。如果标准版 API 接口无法满足您的需求,需要定制开发 API 接口,请联系我们的 IT 技术支持工程师:

详细信息 定制开发服务流程:沟通需求✅ → 确认技术方案✅ → 沟通费用与工期✅ → 开发&测试✅ → 验收交付✅ → 维护升级✅

接口地址

POST https://wcode.net/api/gpt/v1/chat/completions

此 API 接口兼容 OpenAI 的接口规范,也就是可以直接使用 OpenAI 的 SDK 来调用各个模型。仅需替换以下两项配置:

  1. BASE_URL 替换为 https://wcode.net/api/gpt/v1
  2. API_KEY 替换为从 https://wcode.net/get-apikey 获取到的 API KEY

即可开始使用 OpenAI SDK 调用 通义千问系列豆包系列DeepSeek系列文心一言系列混元系列......等各个模型

请求方法

POST

快速开始(请求示例)

(注:以下请求示例中的 API_KEY 需要替换后再发起请求。 获取 API_KEY 入口:https://wcode.net/get-apikey

curl --request POST 'https://wcode.net/api/gpt/v1/chat/completions' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer API_KEY' \
--data '{
    "model": "deepseek-r1",
    "messages": [
        {
            "role": "user",
            "content": "在一条河的一边的岸上有一只狼、一只羊和一棵白菜;已知狼吃羊、羊吃白菜;在河中只有一条小船,且每次只能载狼、羊、白菜之一;请问如何用最少的次数将狼、羊、白菜都安全摆渡到对岸?"
        }
    ]
}'

请求头(Request Headers)

Header 备注 示例 相关链接
Authorization Bearer API_KEY 格式:Bearer + 空格 + API_KEY Bearer sk-..... 获取 API_KEY 入口:https://wcode.net/get-apikey
Content-Type application/json 固定为 application/json

请求参数

🚀 model | ✅️必填 | string | 模型ID,可选 model 模型列表(部分):

模型ID 模型名称 模型能力 每千tokens输入 每千tokens输出 更新日期
deepseek/deepseek-v3.2 DeepSeek V3.2 文本生成 ¥0.0030 ¥0.0050 2025-12-02
deepseek/deepseek-v3.2-speciale DeepSeek V3.2 Speciale 文本生成、深度思考 ¥0.0050 ¥0.0150 2025-12-01
deepseek/deepseek-ocr DeepSeek OCR 图片识别、OCR ¥0.0005 ¥0.0010 2025-10-20
deepseek/deepseek-v3.2-exp DeepSeek V3.2 Exp 文本生成 ¥0.0035 ¥0.0055 2025-09-30
deepseek-v3.1-terminus DeepSeek-V3.1 Terminus 通用模型 文本生成 ¥0.0045 ¥0.0135 2025-09-23
deepseek/deepseek-v3.1-terminus DeepSeek V3.1 Terminus 文本生成 ¥0.0037 ¥0.0125 2025-09-23
deepseek/deepseek-chat-v3.1 DeepSeek V3.1 文本生成 ¥0.0035 ¥0.0125 2025-08-24
deepseek-v3.1 DeepSeek-V3.1 通用模型 文本生成 ¥0.0045 ¥0.0135 2025-08-23
deepseek/deepseek-r1-0528 DeepSeek R1 0528 文本生成、深度思考 ¥0.0063 ¥0.0250 2025-05-29
deepseek-r1 DeepSeek-R1 深度思考模型 文本生成、深度思考 ¥0.0050 ¥0.0175 2025-05-28

💡深度思考模型支持返回reasoning_content思维链内容,响应速度会比通用模型慢,同时可能会消耗更多的 tokens。如对响应时间有要求,推荐开启流式输出以更快的获取模型输出的内容。


🚀 messages | ✅️必填 | array | 由历史对话组成的消息列表。array 中的每个元素形式通常为 {"role": 角色, "content": 内容}。角色当前可选值为:systemuserassistant。对于深度思考模型输出的 reasoning_content 思维链内容,请不要传入 messages 历史消息中,否则 API 可能会返回 4xx/5xx 错误。

messages[0]中支持 rolesystem

一般情况下,userassistant 需要交替出现,且 messages 中最后一个元素的 roleuser

DeepSeek-R1 模型推理最佳实践:不推荐使用系统提示(system prompt),所有指令都应当包含在用户提示(user prompt)中。


🚀 stream | 选填 | boolean | 默认值 false | 是否流式输出。

false(默认值):模型生成完所有内容后一次性返回结果。

true:返回符合 SSE 协议的响应,边生成边输出,即每生成一部分内容就立即输出一个片段(chunk),最后以一条 data: [DONE] 消息结束。


🚀 max_tokens | 选填 | int | 默认值 4096 | 默认为 4k,最大可配置为 16k。reasoning_content 思维链最多可以输出 32k tokens,且不占用最大上下文长度(context window)以及最大回复长度(max_tokens)。


🚀 temperature | 选填 | float | 模型采样温度。不推荐更改此设置,默认为官方推荐的最佳值。


以下参数目前暂不支持,如传入可能会忽略或报错。


🚀 top_p | 选填 | float | 默认值 1 | 采样温度,介于 0 和 2 之间。更高的值,如 0.8,会使输出更随机,而更低的值,如 0.2,会使其更加集中和确定。

由于 temperature 与 top_p 均可以控制生成文本的多样性,因此建议您只设置其中一个值。


🚀 frequency_penalty | 选填 | float | 默认值 0 | 介于 -2.0 和 2.0 之间的数字。如果该值为正,那么新 token 会根据其在已有文本中的出现频率受到相应的惩罚,降低模型重复相同内容的可能性。取值范围为 [-2.0, 2.0]


🚀 presence_penalty | 选填 | float | 默认值 0 | 介于 -2.0 和 2.0 之间的数字。如果该值为正,那么新 token 会根据其是否已在已有文本中出现受到相应的惩罚,从而增加模型谈论新主题的可能性。取值范围为 [-2.0, 2.0]


🚀 stop | 选填 | string 或 array | 一个 string 或最多包含 16 个 string 的 list,在遇到这些词时,API 将停止生成更多的 token。

参数示例:["秋天", "落叶"]


部分暂不支持参数

🚀 response_format | 选填 | object | 默认值 {"type": "text"} | 设置为 {"type": "json_object"} 以启用 JSON 模式,该模式保证模型生成的消息是有效的 JSON。

使用 JSON 模式时,你还必须通过系统或用户消息指示模型生成 JSON。否则,模型可能会生成不断的空白字符,直到生成达到令牌限制,从而导致请求长时间运行并显得“卡住”。

此外,如果 finish_reason="length",这表示生成超过了 max_tokens 或对话超过了最大上下文长度,消息内容可能会被部分截断。

返回参数

不同模型返回参数可能存在差异,请以实际返回为准。

返回参数 数据类型 说明
id string 系统生成的标识本次调用的id。
model string 本次调用的模型名。
choices array 模型生成内容的详情。
choices[i].finish_reason string 结束标志。
choices[i].message object 模型生成的消息。
choices[i].message.role string 生成消息的角色。
choices[i].message.content string 生成消息的内容。
choices[i].message.reasoning_content string 或 null 深度思考模型思维链内容,与 content 同级。如果上下文对话未触发深度思考,则此字段将返回 null
choices[i].index int 生成的结果序列编号。
created int 请求被创建时的时间戳。
usage object 请求所消耗的 tokens 数据。
usage.prompt_tokens int 用户输入转换成 token 后的数量。
usage.completion_tokens int 模型生成回复转换为 token 后的数量。
usage.total_tokens int prompt_tokens 与 completion_tokens 的总和。

响应头(Response Headers)

Header 说明 示例 相关链接
X-Account-Balance API_KEY 余额(元) 123.0123 API_KEY 费用充值入口:https://wcode.net/apikey-recharge

Python 代码示例(Requests,deepseek-r1)

import requests
import json

url = "https://wcode.net/api/gpt/v1/chat/completions"

payload = json.dumps({
  "model": "deepseek-r1",
  "messages": [
    {
      "role": "user",
      "content": "DeepSeek R1 的核心功能有哪些?"
    }
  ]
})

headers = {
  'Content-Type': 'application/json',
  'Authorization': 'Bearer API_KEY'     # TODO: 这里的 API_KEY 需要替换,获取 API_KEY 入口:https://wcode.net/get-apikey
}

response = requests.request("POST", url, headers=headers, data=payload)

print(response.text)

Java 代码示例(OkHttp,deepseek-r1)

OkHttpClient client = new OkHttpClient().newBuilder().build();

MediaType mediaType = MediaType.parse("application/json");

RequestBody body = RequestBody.create(mediaType, "{\"model\":\"deepseek-r1\",\"messages\":[{\"role\":\"user\",\"content\":\"DeepSeek R1 适用于哪些应用场景?\"}]}");

Request request = new Request.Builder()
  .url("https://wcode.net/api/gpt/v1/chat/completions")
  .method("POST", body)
  .addHeader("Content-Type", "application/json")
  .addHeader("Authorization", "Bearer API_KEY")     // TODO: 这里的 API_KEY 需要替换,获取 API_KEY 入口:https://wcode.net/get-apikey
  .build();

Response response = client.newCall(request).execute();

PHP 代码示例(Guzzle,deepseek-r1)

<?php

$client = new Client();

$headers = [
  'Content-Type' => 'application/json',
  'Authorization' => 'Bearer API_KEY'     // TODO: 这里的 API_KEY 需要替换,获取 API_KEY 入口:https://wcode.net/get-apikey
];

$body = '{
  "model": "deepseek-r1",
  "messages": [
    {
      "role": "user",
      "content": "DeepSeek R1 的技术优势是什么?"
    }
  ]
}';

$request = new Request('POST', 'https://wcode.net/api/gpt/v1/chat/completions', $headers, $body);

$res = $client->sendAsync($request)->wait();

echo $res->getBody();

...其他编程语言可参考下方 curl http 请求示例进行调用

请求示例 1(DeepSeek-V3)

curl --request POST 'https://wcode.net/api/gpt/v1/chat/completions' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer API_KEY' \
--data '{
    "model": "deepseek-v3",
    "messages": [
        {
            "role": "system",
            "content": "You are a helpful assistant."
        },
        {
            "role": "user",
            "content": "你好,请介绍一下你自己"
        }
    ]
}'

响应示例 1

{
    "id": "021738682440651ae4e096c2cc8de22d6661c1655d5c2bf7b0821",
    "object": "chat.completion",
    "created": 1738682446,
    "model": "deepseek-v3-241226",
    "choices": [
        {
            "index": 0,
            "message": {
                "role": "assistant",
                "content": "您好!我是由中国的深度求索(DeepSeek)公司开发的智能助手DeepSeek-V3。如您有任何任何问题,我会尽我所能为您提供帮助。"
            },
            "finish_reason": "stop"
        }
    ],
    "usage": {
        "prompt_tokens": 15,
        "completion_tokens": 89,
        "total_tokens": 104,
        "prompt_tokens_details": {
            "cached_tokens": 0
        },
        "completion_tokens_details": {
            "reasoning_tokens": 0,
            "accepted_prediction_tokens": 0,
            "rejected_prediction_tokens": 0
        }
    }
}

请求示例 2(DeepSeek-R1 深度思考)

curl --request POST 'https://wcode.net/api/gpt/v1/chat/completions' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer API_KEY' \
--data '{
    "model": "deepseek-r1",
    "messages": [
        {
            "role": "user",
            "content": "DeepSeek-R1 和 DeepSeek-V3 的区别是什么?"
        }
    ]
}'

响应示例 2

{
    "id": "0217386819989293daa81c628f99f4952e49422ec5c552df97ea0",
    "object": "chat.completion",
    "created": 1738682021,
    "model": "deepseek-r1-250120",
    "choices": [
        {
            "index": 0,
            "message": {
                "role": "assistant",
                "content": "DeepSeek-R1和DeepSeek-V3是深度求索公司推出的两个不同模型系列,主要区别如下:\n\n### 1. 定位与目标\n- **DeepSeek-V3**:专注于通用场景的高效模型,强调在多样化任务中的平衡性能,适合广泛的应用需求。\n- **DeepSeek-R1**:专为复杂对话场景优化,尤其在多轮对话、指令跟随和上下文理解方面表现更强,适合需要深入交互的场景。\n\n### 2. 模型架构\n- **DeepSeek-V3**:基于传统Transformer架构,通过深度优化实现高效计算与性能平衡。\n- **DeepSeek-R1**:在V3基础上引入增强的注意力机制和长上下文处理模块,显著提升对话连贯性和上下文关联能力。\n\n### 3. 训练数据\n- **DeepSeek-V3**:使用广泛来源的通用数据,涵盖多领域文本以保证泛化性。\n- **DeepSeek-R1**:在通用数据基础上增加高质量对话数据和针对性强化学习,专注提升对话交互质量。\n\n### 4. 性能特点\n- **DeepSeek-V3**:\n  - 通用任务中响应速度快\n  - 在文本生成、摘要等场景表现均衡\n  - 资源消耗相对较低\n- **DeepSeek-R1**:\n  - 擅长处理多轮复杂对话\n  - 在上下文一致性、指令理解方面更优\n  - 支持更长对话历史保持连贯性\n\n### 5. 应用场景\n- **DeepSeek-V3**:适合客服自动化、内容生成、数据分析等通用AI任务。\n- **DeepSeek-R1**:更适合智能助手、情感陪伴、复杂咨询等深度交互场景。\n\n### 6. 版本迭代\n- **DeepSeek-V3**:最新版本为V3.5,主要提升基础NLP任务的效率。\n- **DeepSeek-R1**:最新版本R1.2专注于对话场景的细粒度优化。\n\n总结来说,V3是通用型解决方案,而R1是面向深度对话场景的专业化版本。选择时需根据具体需求:广泛任务选V3,复杂对话优先R1。"
            },
            "finish_reason": "stop"
        }
    ],
    "usage": {
        "prompt_tokens": 19,
        "completion_tokens": 466,
        "total_tokens": 485,
        "prompt_tokens_details": {
            "cached_tokens": 0
        },
        "completion_tokens_details": {
            "reasoning_tokens": 0,
            "accepted_prediction_tokens": 0,
            "rejected_prediction_tokens": 0
        }
    }
}

请求示例 3(DeepSeek-R1 思维链)

curl --request POST 'https://wcode.net/api/gpt/v1/chat/completions' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer API_KEY' \
--data '{
    "model": "deepseek-r1",
    "messages": [
        {
            "role": "user",
            "content": "9.11和9.8哪个大"
        }
    ]
}'

响应示例 3

{
    "id": "021738729794338d237d31a05adcf01e52f51c0f328db3e70a17e",
    "object": "chat.completion",
    "created": 1738729827,
    "model": "deepseek-r1-250120",
    "choices": [
        {
            "index": 0,
            "message": {
                "role": "assistant",
                "content": "\n\n**答案:9.8比9.11大。**\n\n**解析:**  \n1. **数值对齐**:将两数的小数位数对齐,9.8 可表示为 **9.80**,9.11 保持为 **9.11**。  \n2. **逐位比较**:  \n   - **整数部分**:均为 9,相等。  \n   - **十分位**:9.80 的十分位是 **8**,9.11 的十分位是 **1**。由于 **8 > 1**,因此无需继续比较后续位数。  \n\n**结论**:9.8(即 9.80)大于 9.11。  \n\n若涉及其他含义(如日期、版本号等需特殊规则),需根据具体场景判断,但常规数学比较下 **9.8 > 9.11**。",
                "reasoning_content": "\n嗯,用户问的是9.11和9.8哪个大。首先,我需要确认这两个数的数值形式。看起来都是小数,可能指的是9.11和9.8。不过,有时候在中文里,小数点可能会用点或者分节符号,所以需要确保理解正确。比如,9.11可能是九点一一,也就是9.11,而9.8则是九点八,也就是9.8。\n\n接下来,我需要比较这两个数的大小。通常比较小数的时候,我们会先比较整数部分,如果整数部分相同,再依次比较小数部分的各位数字。这里的两个数的整数部分都是9,所以需要比较小数部分。\n\n不过,这里有个问题,9.8的小数部分只有一位,而9.11有两位。为了方便比较,可能需要把9.8写成9.80,这样小数位数对齐。这样比较的话,9.80和9.11,先看十分位,也就是小数点后第一位。9.80的十分位是8,而9.11的十分位是1。显然,8比1大,所以9.80比9.11大,也就是原来的9.8比9.11大。\n\n不过,用户可能也会有不同的理解,比如有时候中文里的“点”可能被误解为日期或者其他分隔符。比如9.11可能代表九月十一日,而9.8可能代表九月八日,这时候比较日期的话,9月11日比9月8日晚,也就是更大。不过根据问题的上下文,更可能是在比较数值大小,而不是日期。\n\n还有一种可能是版本号,比如软件版本中的9.11和9.8,这时候版本号的比较可能需要遵循特定的规则,但通常也是按照数值大小来比较的。所以在这种情况下,9.8依然大于9.11,因为版本号中的小数点并不代表数学中的小数,而是分开的数字,比如9.11相当于9和11,而9.8则是9和8,这时候比较的话,9.11的次要版本号更高,因此9.11大于9.8。不过这需要具体情况具体分析,但用户没有提到是版本号,所以应该按照常规数值来比较。\n\n总结一下,如果按照数值比较,9.8等于9.80,比9.11大,所以9.8更大。如果是日期的话,9月11日比9月8日晚,所以9.11更大。但根据常规数学比较,答案应该是9.8更大。\n\n不过,我需要确认一下,用户是否在问数值比较,还是有其他含义。比如在某些国家,小数点用逗号表示,点可能用作千位分隔符,但这种情况应该不太可能,因为9.11和9.8作为数值的话,用点作为小数点是常见的。\n\n再仔细想想,如果是数值的话,9.8确实比9.11大,因为十分位8比1大。而如果是版本号,可能规则不同,但用户的问题应该是指数值比较。\n\n所以最终的答案应该是9.8比9.11大,也就是9.8更大。\n"
            },
            "finish_reason": "stop"
        }
    ],
    "usage": {
        "prompt_tokens": 13,
        "completion_tokens": 818,
        "total_tokens": 831,
        "prompt_tokens_details": {
            "cached_tokens": 0
        },
        "completion_tokens_details": {
            "reasoning_tokens": 632,
            "accepted_prediction_tokens": 0,
            "rejected_prediction_tokens": 0
        }
    }
}

请求示例 4(多轮对话,deepseek-v3)

curl --request POST 'https://wcode.net/api/gpt/v1/chat/completions' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer API_KEY' \
--data '{
    "model": "deepseek-v3",
    "messages": [
        {
            "role": "system",
            "content": "You are a helpful assistant."
        },
        {
            "role": "user",
            "content": "你好,请介绍一下 DeepSeek-V3 模型"
        },
        {
            "role": "assistant",
            "content": "你好!DeepSeek-V3 是由深度求索公司(DeepSeek)开发的一款先进的人工智能模型,属于大规模预训练语言模型(LLM)家族。该模型在自然语言处理(NLP)任务中表现出色,能够理解和生成高质量的文本内容。\n\n### 主要特点:\n1. **强大的语言理解与生成能力**:\n   - DeepSeek-V3 能够处理复杂的语言任务,包括文本生成、问答、翻译、摘要、对话等。\n   - 它在多轮对话中表现出色,能够理解上下文并提供连贯的回复。\n\n2. **多领域适应性**:\n   - 模型经过预训练和微调,能够适应多种垂直领域,如医疗、法律、金融、教育等,提供专业化的语言处理服务。\n\n3. **高效推理与优化**:\n   - DeepSeek-V3 在模型架构和推理效率上进行了优化,能够在保证性能的同时降低计算资源消耗。\n\n4. **多语言支持**:\n   - 模型支持多种语言的处理,能够实现跨语言的文本理解和生成。\n\n5. **安全与合规性**:\n   - 在设计和训练过程中,DeepSeek-V3 注重数据隐私和模型的安全性,确保符合相关法律法规。\n\n### 应用场景:\n- **智能客服**:提供高效、准确的自动回复,提升用户体验。\n- **内容创作**:辅助生成文章、报告、营销文案等。\n- **教育辅导**:作为智能助手,帮助学生解答问题或提供学习建议。\n- **医疗咨询**:提供初步的医疗信息和建议(需结合专业医生意见)。\n- **法律咨询**:辅助分析法律文本或提供基础法律信息。\n\n### 技术亮点:\n- 基于 Transformer 架构,结合最新的预训练技术。\n- 支持零样本学习(Zero-shot Learning)和少样本学习(Few-shot Learning),能够在少量数据下快速适应新任务。\n- 通过强化学习和人类反馈(RLHF)进一步优化模型行为,使其更符合人类期望。\n\n如果你有具体的使用场景或问题,可以进一步探讨 DeepSeek-V3 如何帮助你实现目标!"
        },
        {
            "role": "user",
            "content": "再介绍一下 DeepSeek-R1 模型吧"
        }
    ]
}'

响应示例 4

{
    "id": "02173868288988112aa9cae175fcf6648dc533d4617dbb67eb869",
    "object": "chat.completion",
    "created": 1738682913,
    "model": "deepseek-v3-241226",
    "choices": [
        {
            "index": 0,
            "message": {
                "role": "assistant",
                "content": "你好!DeepSeek-R1 是深度求索公司(DeepSeek)推出的另一款人工智能模型,专注于**检索增强生成(Retrieval-Augmented Generation, RAG)**任务。与传统的生成模型不同,DeepSeek-R1 结合了检索和生成的优势,能够从外部知识库中检索相关信息,并基于检索结果生成更准确、更可靠的回答。\n\n### 主要特点:\n1. **检索增强生成(RAG)架构**:\n   - DeepSeek-R1 的核心是 RAG 架构,它结合了检索模块和生成模块。\n   - 检索模块从大规模知识库或文档中查找与输入问题相关的信息。\n   - 生成模块基于检索到的信息生成高质量的回答。\n\n2. **高准确性与可靠性**:\n   - 通过检索外部知识,DeepSeek-R1 能够提供基于事实的回答,减少生成模型可能产生的“幻觉”问题(即生成不准确或虚构的内容)。\n   - 特别适合需要高准确性的任务,如问答、事实核查等。\n\n3. **多源知识整合**:\n   - 模型可以从多种来源(如数据库、文档、网页等)检索信息,并整合这些信息生成综合性的回答。\n\n4. **动态更新知识**:\n   - 由于依赖外部知识库,DeepSeek-R1 可以通过更新知识库来保持信息的时效性,而不需要重新训练模型。\n\n5. **领域适应性**:\n   - 通过定制知识库,DeepSeek-R1 可以快速适应特定领域(如医疗、法律、金融等),提供专业化的服务。\n\n### 应用场景:\n- **智能问答系统**:在开放域或特定领域内,提供基于事实的准确回答。\n- **事实核查**:验证信息的真实性,减少虚假信息的传播。\n- **文档摘要**:从大量文档中检索关键信息并生成简洁的摘要。\n- **知识管理**:帮助企业或组织从内部文档中快速检索和整合知识。\n- **教育辅助**:为学生或教师提供基于权威知识库的学习支持。\n\n### 技术亮点:\n- **检索模块**:基于高效的向量检索技术,能够快速从海量数据中找到相关信息。\n- **生成模块**:基于先进的生成模型(如 GPT 架构),能够生成流畅、自然的文本。\n- **联合优化**:检索模块和生成模块在训练过程中联合优化,确保检索结果与生成内容的高度一致性。\n\n### 与 DeepSeek-V3 的区别:\n- **DeepSeek-V3** 主要依赖模型内部的知识和语言理解能力,适合生成任务和对话任务。\n- **DeepSeek-R1** 则通过检索外部知识来增强生成能力,更适合需要高准确性和事实依据的任务。\n\n如果你有具体的需求或场景,可以进一步探讨 DeepSeek-R1 如何为你提供支持!"
            },
            "finish_reason": "stop"
        }
    ],
    "usage": {
        "prompt_tokens": 473,
        "completion_tokens": 596,
        "total_tokens": 1069,
        "prompt_tokens_details": {
            "cached_tokens": 0
        },
        "completion_tokens_details": {
            "reasoning_tokens": 0,
            "accepted_prediction_tokens": 0,
            "rejected_prediction_tokens": 0
        }
    }
}

请求示例 5(deepseek-r1,流式输出)

curl --request POST 'https://wcode.net/api/gpt/v1/chat/completions' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer API_KEY' \
--data '{
    "model": "deepseek-r1",
    "stream": true,
    "messages": [
        {
            "role": "system",
            "content": "You are a helpful assistant."
        },
        {
            "role": "user",
            "content": "你好"
        }
    ]
}'

响应示例 5

data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":""},"finish_reason":null}]}

data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":""},"finish_reason":null}]}

data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":""},"finish_reason":null}]}

data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":"你好"},"finish_reason":null}]}

data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":"!"},"finish_reason":null}]}

data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":"很高兴"},"finish_reason":null}]}

data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":"见到"},"finish_reason":null}]}

data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":"你"},"finish_reason":null}]}

data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":","},"finish_reason":null}]}

data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":"有什么"},"finish_reason":null}]}

data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":"我可以"},"finish_reason":null}]}

data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":"帮忙"},"finish_reason":null}]}

data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":"的吗"},"finish_reason":null}]}

data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":"?"},"finish_reason":null}]}

data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":"无论是"},"finish_reason":null}]}

data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":"问题"},"finish_reason":null}]}

data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":"、"},"finish_reason":null}]}

data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":"建议"},"finish_reason":null}]}

data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":"还是"},"finish_reason":null}]}

data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":"闲聊"},"finish_reason":null}]}

data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":","},"finish_reason":null}]}

data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":"我"},"finish_reason":null}]}

data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":"都在"},"finish_reason":null}]}

data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":"这里"},"finish_reason":null}]}

data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":"为你"},"finish_reason":null}]}

data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":"服务"},"finish_reason":null}]}

data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":"。"},"finish_reason":null}]}

data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":""},"finish_reason":null}]}

data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":"😊"},"finish_reason":null}]}

data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":""},"finish_reason":"stop"}]}

data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[],"usage":{"prompt_tokens":5,"completion_tokens":26,"total_tokens":31,"prompt_tokens_details":{"cached_tokens":0},"completion_tokens_details":{"reasoning_tokens":0,"accepted_prediction_tokens":0,"rejected_prediction_tokens":0}}}

data: [DONE]

异常响应示例

{
    "error": {
        "message": "Invalid API-KEY",
        "type": "invalid_request_error",
        "param": null,
        "code": null
    }
}



以上文档为标准版 API 接口文档,可直接用于项目开发和系统调用。如果标准版 API 接口无法满足您的需求,需要定制开发 API 接口,请扫码联系我们的 IT 技术支持工程师:

(沟通需求✅ → 确认技术方案✅ → 沟通费用与工期✅ → 开发&测试✅ → 验收交付✅ → 维护升级✅)

最受关注模型

Doubao Seed 2.0 Code

代码补全、深度思考

MiniMax M2.7

文本生成、深度思考、专业能力

GLM 5

文本生成、深度思考、代码补全

Step 3.5 Flash

文本生成、代码补全、深度思考

Qwen3 Coder Next

文本生成、深度思考、代码补全

Qwen3.5 27B

深度思考、视觉理解、文本生成

Qwen3.5 35B A3B

深度思考、视觉理解、文本生成

Doubao Seed 2.0 Pro

文本生成、深度思考、多模态

Qwen 3.5 Plus

文本生成、深度思考、多模态

Doubao Seed 1.8

多模态、深度思考

最新发布模型

MiMo V2 Omni

文本生成、深度思考、多模态

MiMo V2 Pro

文本生成、深度思考

MiniMax M2.7

文本生成、深度思考、专业能力

GLM 5 Turbo

文本生成、深度思考、OpenClaw优化

Qwen3.5 9B

文本生成、多模态

Qwen3.5 35B A3B

深度思考、视觉理解、文本生成

Qwen3.5 27B

深度思考、视觉理解、文本生成

Qwen3.5 Flash

深度思考

Qwen3.5 122B A10B

深度思考、视觉理解、文本生成

Qwen3.5 397B A17B

文本生成、深度思考、多模态