
DeepSeek 大模型 API 接口
DeepSeek-V3 多项评测成绩超越了 Qwen2.5-72B 和 Llama-3.1-405B 等其他开源模型,并在性能上和世界顶尖的闭源模型 GPT-4o 以及 Claude-3.5-Sonnet 不分伯仲。DeepSeek-R1 在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩 OpenAI o1 正式版。
接口地址
POST https://wcode.net/api/gpt/v1/chat/completions
此 API 接口兼容 OpenAI 的接口规范,也就是可以直接使用 OpenAI 的 SDK 来调用各个模型。仅需替换以下两项配置:
BASE_URL
替换为https://wcode.net/api/gpt/v1
API_KEY
替换为从 https://wcode.net/get-apikey 获取到的 API KEY即可开始使用 OpenAI SDK 调用 通义千问系列、豆包系列、混元系列、DeepSeek系列......等各个模型。
请求方法
POST
快速开始(请求示例)
(注:以下请求示例中的 API_KEY
需要替换后再发起请求。 获取 API_KEY
入口:https://wcode.net/get-apikey)
curl --request POST 'https://wcode.net/api/gpt/v1/chat/completions' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer API_KEY' \
--data '{
"model": "deepseek-v3",
"messages": [
{
"role": "user",
"content": "你好,请介绍一下你自己"
}
]
}'
请求头(Request Headers)
Header | 值 | 备注 | 示例 | 相关链接 |
---|---|---|---|---|
Authorization | Bearer API_KEY |
格式:Bearer + 空格 + API_KEY | Bearer sk-..... |
获取 API_KEY 入口:https://wcode.net/get-apikey |
Content-Type | application/json |
固定为 application/json |
请求参数
🚀 model
| ✅️必填 | string
| 模型ID,可选 model 模型列表(部分):
模型ID | 模型名称 | 每 1000 tokens 费用 | 更新日期 |
---|---|---|---|
deepseek-r1 |
DeepSeek-R1 深度思考模型 | 0.02 | 2025-01-20 ❇️最近更新 |
deepseek-r1-distill-qwen-32b |
DeepSeek-R1-Distill-Qwen-32B 模型 | 0.008 | 2025-01-20 ❇️最近更新 |
deepseek-r1-distill-qwen-7b |
DeepSeek-R1-Distill-Qwen-7B 模型 | 0.0035 | 2025-01-20 ❇️最近更新 |
deepseek-v3 |
DeepSeek-V3 通用模型 | 0.01 | 2024-12-26 ❇️最近更新 |
💡深度思考模型支持返回
reasoning_content
思维链内容,响应速度会比通用模型慢,同时可能会消耗更多的 tokens。如对响应时间有要求,推荐开启流式输出以更快的获取模型输出的内容。
🚀 messages
| ✅️必填 | array
| 由历史对话组成的消息列表。array 中的每个元素形式通常为 {"role": 角色, "content": 内容}
。角色当前可选值为:system
,user
,assistant
。
仅
messages[0]
中支持role
为system
。一般情况下,
user
和assistant
需要交替出现,且messages
中最后一个元素的role
为user
。
🚀 stream
| 选填 | boolean
| 默认值 false
| 是否流式输出。
false
(默认值):模型生成完所有内容后一次性返回结果。
true
:返回符合 SSE 协议的响应,边生成边输出,即每生成一部分内容就立即输出一个片段(chunk),最后以一条data: [DONE]
消息结束。
🚀 max_tokens
| 选填 | int
| 默认值 4096
| 介于 1 到 8192 间的整数,限制一次请求中模型生成 completion 的最大 token 数。输入 token 和输出 token 的总长度受模型的上下文长度的限制。
🚀 temperature
| 选填 | float
| 默认值 1
| 作为调节采样温度的替代方案,模型会考虑前 top_p 概率的 token 的结果。所以 0.1 就意味着只有包括在最高 10% 概率中的 token 会被考虑。
🚀 top_p
| 选填 | float
| 默认值 1
| 采样温度,介于 0 和 2 之间。更高的值,如 0.8,会使输出更随机,而更低的值,如 0.2,会使其更加集中和确定。
由于 temperature 与 top_p 均可以控制生成文本的多样性,因此建议您只设置其中一个值。
🚀 frequency_penalty
| 选填 | float
| 默认值 0
| 介于 -2.0 和 2.0 之间的数字。如果该值为正,那么新 token 会根据其在已有文本中的出现频率受到相应的惩罚,降低模型重复相同内容的可能性。取值范围为 [-2.0, 2.0]
。
🚀 presence_penalty
| 选填 | float
| 默认值 0
| 介于 -2.0 和 2.0 之间的数字。如果该值为正,那么新 token 会根据其是否已在已有文本中出现受到相应的惩罚,从而增加模型谈论新主题的可能性。取值范围为 [-2.0, 2.0]
。
🚀 stop
| 选填 | string 或 array
| 一个 string 或最多包含 16 个 string 的 list,在遇到这些词时,API 将停止生成更多的 token。
参数示例:
["秋天", "落叶"]
部分暂不支持参数
🚀 response_format
| 选填 | object
| 默认值 {"type": "text"}
| 设置为 {"type": "json_object"}
以启用 JSON 模式,该模式保证模型生成的消息是有效的 JSON。
使用 JSON 模式时,你还必须通过系统或用户消息指示模型生成 JSON。否则,模型可能会生成不断的空白字符,直到生成达到令牌限制,从而导致请求长时间运行并显得“卡住”。
此外,如果 finish_reason="length",这表示生成超过了 max_tokens 或对话超过了最大上下文长度,消息内容可能会被部分截断。
返回参数
不同模型返回参数可能存在差异,请以实际返回为准。
返回参数 | 数据类型 | 说明 |
---|---|---|
id | string | 系统生成的标识本次调用的id。 |
model | string | 本次调用的模型名。 |
choices | array | 模型生成内容的详情。 |
choices[i].finish_reason | string | 结束标志。 |
choices[i].message | object | 模型生成的消息。 |
choices[i].message.role | string | 生成消息的角色。 |
choices[i].message.content | string | 生成消息的内容。 |
choices[i].message.reasoning_content | string 或 null | 深度思考模型思维链内容,与 content 同级。 |
choices[i].index | int | 生成的结果序列编号。 |
created | int | 请求被创建时的时间戳。 |
usage | object | 请求所消耗的 tokens 数据。 |
usage.prompt_tokens | int | 用户输入转换成 token 后的数量。 |
usage.completion_tokens | int | 模型生成回复转换为 token 后的数量。 |
usage.total_tokens | int | prompt_tokens 与 completion_tokens 的总和。 |
响应头(Response Headers)
Header | 说明 | 示例 | 相关链接 |
---|---|---|---|
X-Account-Balance | API_KEY 余额(元) | 123.0165 |
API_KEY 费用充值入口:https://wcode.net/apikey-recharge |
Python 代码示例(Requests,deepseek-v3)
import requests
import json
url = "https://wcode.net/api/gpt/v1/chat/completions"
payload = json.dumps({
"model": "deepseek-v3",
"messages": [
{
"role": "system",
"content": "You are a helpful assistant."
},
{
"role": "user",
"content": "你好"
}
]
})
headers = {
'Content-Type': 'application/json',
'Authorization': 'Bearer API_KEY' # TODO: 这里的 API_KEY 需要替换,获取 API_KEY 入口:https://wcode.net/get-apikey
}
response = requests.request("POST", url, headers=headers, data=payload)
print(response.text)
Java 代码示例(OkHttp,deepseek-v3)
OkHttpClient client = new OkHttpClient().newBuilder().build();
MediaType mediaType = MediaType.parse("application/json");
RequestBody body = RequestBody.create(mediaType, "{\"model\":\"deepseek-v3\",\"messages\":[{\"role\":\"system\",\"content\":\"You are a helpful assistant.\"},{\"role\":\"user\",\"content\":\"你好\"}]}");
Request request = new Request.Builder()
.url("https://wcode.net/api/gpt/v1/chat/completions")
.method("POST", body)
.addHeader("Content-Type", "application/json")
.addHeader("Authorization", "Bearer API_KEY") // TODO: 这里的 API_KEY 需要替换,获取 API_KEY 入口:https://wcode.net/get-apikey
.build();
Response response = client.newCall(request).execute();
PHP 代码示例(Guzzle,deepseek-v3)
<?php
$client = new Client();
$headers = [
'Content-Type' => 'application/json',
'Authorization' => 'Bearer API_KEY' // TODO: 这里的 API_KEY 需要替换,获取 API_KEY 入口:https://wcode.net/get-apikey
];
$body = '{
"model": "deepseek-v3",
"messages": [
{
"role": "system",
"content": "You are a helpful assistant."
},
{
"role": "user",
"content": "你好"
}
]
}';
$request = new Request('POST', 'https://wcode.net/api/gpt/v1/chat/completions', $headers, $body);
$res = $client->sendAsync($request)->wait();
echo $res->getBody();
...其他编程语言可参考下方 curl http 请求示例进行调用
请求示例 1(DeepSeek-V3)
curl --request POST 'https://wcode.net/api/gpt/v1/chat/completions' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer API_KEY' \
--data '{
"model": "deepseek-v3",
"messages": [
{
"role": "system",
"content": "You are a helpful assistant."
},
{
"role": "user",
"content": "你好,请介绍一下你自己"
}
]
}'
响应示例 1
{
"id": "021738682440651ae4e096c2cc8de22d6661c1655d5c2bf7b0821",
"object": "chat.completion",
"created": 1738682446,
"model": "deepseek-v3-241226",
"choices": [
{
"index": 0,
"message": {
"role": "assistant",
"content": "您好!我是由中国的深度求索(DeepSeek)公司开发的智能助手DeepSeek-V3。如您有任何任何问题,我会尽我所能为您提供帮助。"
},
"finish_reason": "stop"
}
],
"usage": {
"prompt_tokens": 15,
"completion_tokens": 89,
"total_tokens": 104,
"prompt_tokens_details": {
"cached_tokens": 0
},
"completion_tokens_details": {
"reasoning_tokens": 0,
"accepted_prediction_tokens": 0,
"rejected_prediction_tokens": 0
}
}
}
请求示例 2(DeepSeek-R1 深度思考)
curl --request POST 'https://wcode.net/api/gpt/v1/chat/completions' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer API_KEY' \
--data '{
"model": "deepseek-r1",
"messages": [
{
"role": "user",
"content": "DeepSeek-R1 和 DeepSeek-V3 的区别是什么?"
}
]
}'
响应示例 2
{
"id": "0217386819989293daa81c628f99f4952e49422ec5c552df97ea0",
"object": "chat.completion",
"created": 1738682021,
"model": "deepseek-r1-250120",
"choices": [
{
"index": 0,
"message": {
"role": "assistant",
"content": "DeepSeek-R1和DeepSeek-V3是深度求索公司推出的两个不同模型系列,主要区别如下:\n\n### 1. 定位与目标\n- **DeepSeek-V3**:专注于通用场景的高效模型,强调在多样化任务中的平衡性能,适合广泛的应用需求。\n- **DeepSeek-R1**:专为复杂对话场景优化,尤其在多轮对话、指令跟随和上下文理解方面表现更强,适合需要深入交互的场景。\n\n### 2. 模型架构\n- **DeepSeek-V3**:基于传统Transformer架构,通过深度优化实现高效计算与性能平衡。\n- **DeepSeek-R1**:在V3基础上引入增强的注意力机制和长上下文处理模块,显著提升对话连贯性和上下文关联能力。\n\n### 3. 训练数据\n- **DeepSeek-V3**:使用广泛来源的通用数据,涵盖多领域文本以保证泛化性。\n- **DeepSeek-R1**:在通用数据基础上增加高质量对话数据和针对性强化学习,专注提升对话交互质量。\n\n### 4. 性能特点\n- **DeepSeek-V3**:\n - 通用任务中响应速度快\n - 在文本生成、摘要等场景表现均衡\n - 资源消耗相对较低\n- **DeepSeek-R1**:\n - 擅长处理多轮复杂对话\n - 在上下文一致性、指令理解方面更优\n - 支持更长对话历史保持连贯性\n\n### 5. 应用场景\n- **DeepSeek-V3**:适合客服自动化、内容生成、数据分析等通用AI任务。\n- **DeepSeek-R1**:更适合智能助手、情感陪伴、复杂咨询等深度交互场景。\n\n### 6. 版本迭代\n- **DeepSeek-V3**:最新版本为V3.5,主要提升基础NLP任务的效率。\n- **DeepSeek-R1**:最新版本R1.2专注于对话场景的细粒度优化。\n\n总结来说,V3是通用型解决方案,而R1是面向深度对话场景的专业化版本。选择时需根据具体需求:广泛任务选V3,复杂对话优先R1。"
},
"finish_reason": "stop"
}
],
"usage": {
"prompt_tokens": 19,
"completion_tokens": 466,
"total_tokens": 485,
"prompt_tokens_details": {
"cached_tokens": 0
},
"completion_tokens_details": {
"reasoning_tokens": 0,
"accepted_prediction_tokens": 0,
"rejected_prediction_tokens": 0
}
}
}
请求示例 3(DeepSeek-R1 思维链)
curl --request POST 'https://wcode.net/api/gpt/v1/chat/completions' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer API_KEY' \
--data '{
"model": "deepseek-r1",
"messages": [
{
"role": "user",
"content": "9.11和9.8哪个大"
}
]
}'
响应示例 3
{
"id": "021738729794338d237d31a05adcf01e52f51c0f328db3e70a17e",
"object": "chat.completion",
"created": 1738729827,
"model": "deepseek-r1-250120",
"choices": [
{
"index": 0,
"message": {
"role": "assistant",
"content": "\n\n**答案:9.8比9.11大。**\n\n**解析:** \n1. **数值对齐**:将两数的小数位数对齐,9.8 可表示为 **9.80**,9.11 保持为 **9.11**。 \n2. **逐位比较**: \n - **整数部分**:均为 9,相等。 \n - **十分位**:9.80 的十分位是 **8**,9.11 的十分位是 **1**。由于 **8 > 1**,因此无需继续比较后续位数。 \n\n**结论**:9.8(即 9.80)大于 9.11。 \n\n若涉及其他含义(如日期、版本号等需特殊规则),需根据具体场景判断,但常规数学比较下 **9.8 > 9.11**。",
"reasoning_content": "\n嗯,用户问的是9.11和9.8哪个大。首先,我需要确认这两个数的数值形式。看起来都是小数,可能指的是9.11和9.8。不过,有时候在中文里,小数点可能会用点或者分节符号,所以需要确保理解正确。比如,9.11可能是九点一一,也就是9.11,而9.8则是九点八,也就是9.8。\n\n接下来,我需要比较这两个数的大小。通常比较小数的时候,我们会先比较整数部分,如果整数部分相同,再依次比较小数部分的各位数字。这里的两个数的整数部分都是9,所以需要比较小数部分。\n\n不过,这里有个问题,9.8的小数部分只有一位,而9.11有两位。为了方便比较,可能需要把9.8写成9.80,这样小数位数对齐。这样比较的话,9.80和9.11,先看十分位,也就是小数点后第一位。9.80的十分位是8,而9.11的十分位是1。显然,8比1大,所以9.80比9.11大,也就是原来的9.8比9.11大。\n\n不过,用户可能也会有不同的理解,比如有时候中文里的“点”可能被误解为日期或者其他分隔符。比如9.11可能代表九月十一日,而9.8可能代表九月八日,这时候比较日期的话,9月11日比9月8日晚,也就是更大。不过根据问题的上下文,更可能是在比较数值大小,而不是日期。\n\n还有一种可能是版本号,比如软件版本中的9.11和9.8,这时候版本号的比较可能需要遵循特定的规则,但通常也是按照数值大小来比较的。所以在这种情况下,9.8依然大于9.11,因为版本号中的小数点并不代表数学中的小数,而是分开的数字,比如9.11相当于9和11,而9.8则是9和8,这时候比较的话,9.11的次要版本号更高,因此9.11大于9.8。不过这需要具体情况具体分析,但用户没有提到是版本号,所以应该按照常规数值来比较。\n\n总结一下,如果按照数值比较,9.8等于9.80,比9.11大,所以9.8更大。如果是日期的话,9月11日比9月8日晚,所以9.11更大。但根据常规数学比较,答案应该是9.8更大。\n\n不过,我需要确认一下,用户是否在问数值比较,还是有其他含义。比如在某些国家,小数点用逗号表示,点可能用作千位分隔符,但这种情况应该不太可能,因为9.11和9.8作为数值的话,用点作为小数点是常见的。\n\n再仔细想想,如果是数值的话,9.8确实比9.11大,因为十分位8比1大。而如果是版本号,可能规则不同,但用户的问题应该是指数值比较。\n\n所以最终的答案应该是9.8比9.11大,也就是9.8更大。\n"
},
"finish_reason": "stop"
}
],
"usage": {
"prompt_tokens": 13,
"completion_tokens": 818,
"total_tokens": 831,
"prompt_tokens_details": {
"cached_tokens": 0
},
"completion_tokens_details": {
"reasoning_tokens": 632,
"accepted_prediction_tokens": 0,
"rejected_prediction_tokens": 0
}
}
}
请求示例 4(多轮对话,deepseek-v3)
curl --request POST 'https://wcode.net/api/gpt/v1/chat/completions' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer API_KEY' \
--data '{
"model": "deepseek-v3",
"messages": [
{
"role": "system",
"content": "You are a helpful assistant."
},
{
"role": "user",
"content": "你好,请介绍一下 DeepSeek-V3 模型"
},
{
"role": "assistant",
"content": "你好!DeepSeek-V3 是由深度求索公司(DeepSeek)开发的一款先进的人工智能模型,属于大规模预训练语言模型(LLM)家族。该模型在自然语言处理(NLP)任务中表现出色,能够理解和生成高质量的文本内容。\n\n### 主要特点:\n1. **强大的语言理解与生成能力**:\n - DeepSeek-V3 能够处理复杂的语言任务,包括文本生成、问答、翻译、摘要、对话等。\n - 它在多轮对话中表现出色,能够理解上下文并提供连贯的回复。\n\n2. **多领域适应性**:\n - 模型经过预训练和微调,能够适应多种垂直领域,如医疗、法律、金融、教育等,提供专业化的语言处理服务。\n\n3. **高效推理与优化**:\n - DeepSeek-V3 在模型架构和推理效率上进行了优化,能够在保证性能的同时降低计算资源消耗。\n\n4. **多语言支持**:\n - 模型支持多种语言的处理,能够实现跨语言的文本理解和生成。\n\n5. **安全与合规性**:\n - 在设计和训练过程中,DeepSeek-V3 注重数据隐私和模型的安全性,确保符合相关法律法规。\n\n### 应用场景:\n- **智能客服**:提供高效、准确的自动回复,提升用户体验。\n- **内容创作**:辅助生成文章、报告、营销文案等。\n- **教育辅导**:作为智能助手,帮助学生解答问题或提供学习建议。\n- **医疗咨询**:提供初步的医疗信息和建议(需结合专业医生意见)。\n- **法律咨询**:辅助分析法律文本或提供基础法律信息。\n\n### 技术亮点:\n- 基于 Transformer 架构,结合最新的预训练技术。\n- 支持零样本学习(Zero-shot Learning)和少样本学习(Few-shot Learning),能够在少量数据下快速适应新任务。\n- 通过强化学习和人类反馈(RLHF)进一步优化模型行为,使其更符合人类期望。\n\n如果你有具体的使用场景或问题,可以进一步探讨 DeepSeek-V3 如何帮助你实现目标!"
},
{
"role": "user",
"content": "再介绍一下 DeepSeek-R1 模型吧"
}
]
}'
响应示例 4
{
"id": "02173868288988112aa9cae175fcf6648dc533d4617dbb67eb869",
"object": "chat.completion",
"created": 1738682913,
"model": "deepseek-v3-241226",
"choices": [
{
"index": 0,
"message": {
"role": "assistant",
"content": "你好!DeepSeek-R1 是深度求索公司(DeepSeek)推出的另一款人工智能模型,专注于**检索增强生成(Retrieval-Augmented Generation, RAG)**任务。与传统的生成模型不同,DeepSeek-R1 结合了检索和生成的优势,能够从外部知识库中检索相关信息,并基于检索结果生成更准确、更可靠的回答。\n\n### 主要特点:\n1. **检索增强生成(RAG)架构**:\n - DeepSeek-R1 的核心是 RAG 架构,它结合了检索模块和生成模块。\n - 检索模块从大规模知识库或文档中查找与输入问题相关的信息。\n - 生成模块基于检索到的信息生成高质量的回答。\n\n2. **高准确性与可靠性**:\n - 通过检索外部知识,DeepSeek-R1 能够提供基于事实的回答,减少生成模型可能产生的“幻觉”问题(即生成不准确或虚构的内容)。\n - 特别适合需要高准确性的任务,如问答、事实核查等。\n\n3. **多源知识整合**:\n - 模型可以从多种来源(如数据库、文档、网页等)检索信息,并整合这些信息生成综合性的回答。\n\n4. **动态更新知识**:\n - 由于依赖外部知识库,DeepSeek-R1 可以通过更新知识库来保持信息的时效性,而不需要重新训练模型。\n\n5. **领域适应性**:\n - 通过定制知识库,DeepSeek-R1 可以快速适应特定领域(如医疗、法律、金融等),提供专业化的服务。\n\n### 应用场景:\n- **智能问答系统**:在开放域或特定领域内,提供基于事实的准确回答。\n- **事实核查**:验证信息的真实性,减少虚假信息的传播。\n- **文档摘要**:从大量文档中检索关键信息并生成简洁的摘要。\n- **知识管理**:帮助企业或组织从内部文档中快速检索和整合知识。\n- **教育辅助**:为学生或教师提供基于权威知识库的学习支持。\n\n### 技术亮点:\n- **检索模块**:基于高效的向量检索技术,能够快速从海量数据中找到相关信息。\n- **生成模块**:基于先进的生成模型(如 GPT 架构),能够生成流畅、自然的文本。\n- **联合优化**:检索模块和生成模块在训练过程中联合优化,确保检索结果与生成内容的高度一致性。\n\n### 与 DeepSeek-V3 的区别:\n- **DeepSeek-V3** 主要依赖模型内部的知识和语言理解能力,适合生成任务和对话任务。\n- **DeepSeek-R1** 则通过检索外部知识来增强生成能力,更适合需要高准确性和事实依据的任务。\n\n如果你有具体的需求或场景,可以进一步探讨 DeepSeek-R1 如何为你提供支持!"
},
"finish_reason": "stop"
}
],
"usage": {
"prompt_tokens": 473,
"completion_tokens": 596,
"total_tokens": 1069,
"prompt_tokens_details": {
"cached_tokens": 0
},
"completion_tokens_details": {
"reasoning_tokens": 0,
"accepted_prediction_tokens": 0,
"rejected_prediction_tokens": 0
}
}
}
请求示例 5(deepseek-r1,流式输出)
curl --request POST 'https://wcode.net/api/gpt/v1/chat/completions' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer API_KEY' \
--data '{
"model": "deepseek-r1",
"stream": true,
"messages": [
{
"role": "system",
"content": "You are a helpful assistant."
},
{
"role": "user",
"content": "你好"
}
]
}'
响应示例 5
data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":""},"finish_reason":null}]}
data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":""},"finish_reason":null}]}
data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":""},"finish_reason":null}]}
data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":"你好"},"finish_reason":null}]}
data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":"!"},"finish_reason":null}]}
data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":"很高兴"},"finish_reason":null}]}
data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":"见到"},"finish_reason":null}]}
data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":"你"},"finish_reason":null}]}
data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":","},"finish_reason":null}]}
data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":"有什么"},"finish_reason":null}]}
data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":"我可以"},"finish_reason":null}]}
data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":"帮忙"},"finish_reason":null}]}
data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":"的吗"},"finish_reason":null}]}
data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":"?"},"finish_reason":null}]}
data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":"无论是"},"finish_reason":null}]}
data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":"问题"},"finish_reason":null}]}
data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":"、"},"finish_reason":null}]}
data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":"建议"},"finish_reason":null}]}
data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":"还是"},"finish_reason":null}]}
data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":"闲聊"},"finish_reason":null}]}
data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":","},"finish_reason":null}]}
data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":"我"},"finish_reason":null}]}
data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":"都在"},"finish_reason":null}]}
data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":"这里"},"finish_reason":null}]}
data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":"为你"},"finish_reason":null}]}
data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":"服务"},"finish_reason":null}]}
data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":"。"},"finish_reason":null}]}
data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":""},"finish_reason":null}]}
data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":"😊"},"finish_reason":null}]}
data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[{"index":0,"delta":{"role":"assistant","content":""},"finish_reason":"stop"}]}
data: {"id":"0217386813552776a2ff079f9e1dbb845c3d99126cdc8223f7596","object":"chat.completion.chunk","created":1738681356,"model":"deepseek-r1-250120","choices":[],"usage":{"prompt_tokens":5,"completion_tokens":26,"total_tokens":31,"prompt_tokens_details":{"cached_tokens":0},"completion_tokens_details":{"reasoning_tokens":0,"accepted_prediction_tokens":0,"rejected_prediction_tokens":0}}}
data: [DONE]
异常响应示例
{
"error": {
"message": "Invalid API-KEY",
"type": "invalid_request_error",
"param": null,
"code": null
}
}