Claude Messages
通过 OpenAI 兼容格式调用 Anthropic Claude 系列模型,也可使用原生 Claude Messages 格式。
接口信息
- 请求方式:
POST - 接口地址:
https://1688token.ai/v1/chat/completions(OpenAI 兼容) - 认证方式:Bearer Token
请求参数
| 参数 | 类型 | 必填 | 说明 |
|---|---|---|---|
model | string | ✅ | Claude 模型名称,见下方列表 |
messages | array | ✅ | 对话消息列表 |
max_tokens | integer | ✅ | 最大输出 Token 数,Claude 必填 |
system | string | — | 系统提示词(原生格式专用) |
stream | boolean | — | 是否开启流式输出,默认 false |
temperature | number | — | 随机性,范围 0~1,默认 1 |
top_p | number | — | 核采样概率 |
top_k | integer | — | Top-K 采样(Claude 专有参数) |
请求示例
python
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://1688token.ai/v1"
)
response = client.chat.completions.create(
model="claude-sonnet-4-6",
messages=[
{"role": "system", "content": "你是一个专业的代码审查助手。"},
{"role": "user", "content": "请帮我审查以下 Python 代码,指出潜在问题:\n\ndef add(a, b):\n return a+b"}
],
max_tokens=1024,
temperature=0.7
)
print(response.choices[0].message.content)javascript
import OpenAI from "openai";
const client = new OpenAI({
apiKey: "YOUR_API_KEY",
baseURL: "https://1688token.ai/v1"
});
const response = await client.chat.completions.create({
model: "claude-sonnet-4-6",
messages: [
{ role: "system", content: "你是一个专业的代码审查助手。" },
{ role: "user", content: "请帮我审查以下 Python 代码,指出潜在问题:\n\ndef add(a, b):\n return a+b" }
],
max_tokens: 1024,
temperature: 0.7
});
console.log(response.choices[0].message.content);bash
curl https://1688token.ai/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer YOUR_API_KEY" \
-d '{
"model": "claude-sonnet-4-6",
"messages": [
{"role": "system", "content": "你是一个专业的代码审查助手。"},
{"role": "user", "content": "请帮我审查以下 Python 代码,指出潜在问题。"}
],
"max_tokens": 1024
}'流式输出
python
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://1688token.ai/v1"
)
stream = client.chat.completions.create(
model="claude-sonnet-4-6",
messages=[{"role": "user", "content": "请写一篇关于 AI 发展的短文"}],
max_tokens=1024,
stream=True
)
for chunk in stream:
delta = chunk.choices[0].delta.content
if delta:
print(delta, end="", flush=True)响应示例
json
{
"id": "chatcmpl-abc123",
"object": "chat.completion",
"created": 1715000000,
"model": "claude-sonnet-4-6",
"choices": [
{
"index": 0,
"message": {
"role": "assistant",
"content": "这段代码整体结构简洁,但有以下几点可以改进..."
},
"finish_reason": "end_turn"
}
],
"usage": {
"prompt_tokens": 52,
"completion_tokens": 128,
"total_tokens": 180
}
}支持的模型
| 模型 | 上下文窗口 | 说明 |
|---|---|---|
claude-opus-4-7 | 200K | 最强推理能力,适合复杂分析和长文档 |
claude-sonnet-4-6 | 200K | 性能与速度均衡,推荐日常使用 |
claude-haiku-4-5-20251001 | 200K | 轻量快速,适合高并发、低延迟场景 |
注意事项
- Claude 模型的
max_tokens参数为必填项,建议根据实际需求设置 temperature范围为0~1(与 GPT 系列的0~2不同)finish_reason为end_turn时表示正常结束(GPT 系列为stop)
