Skip to content

Claude Messages

通过 OpenAI 兼容格式调用 Anthropic Claude 系列模型,也可使用原生 Claude Messages 格式。

接口信息

  • 请求方式POST
  • 接口地址https://1688token.ai/v1/chat/completions(OpenAI 兼容)
  • 认证方式:Bearer Token

请求参数

参数类型必填说明
modelstringClaude 模型名称,见下方列表
messagesarray对话消息列表
max_tokensinteger最大输出 Token 数,Claude 必填
systemstring系统提示词(原生格式专用)
streamboolean是否开启流式输出,默认 false
temperaturenumber随机性,范围 0~1,默认 1
top_pnumber核采样概率
top_kintegerTop-K 采样(Claude 专有参数)

请求示例

python
from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://1688token.ai/v1"
)

response = client.chat.completions.create(
    model="claude-sonnet-4-6",
    messages=[
        {"role": "system", "content": "你是一个专业的代码审查助手。"},
        {"role": "user", "content": "请帮我审查以下 Python 代码,指出潜在问题:\n\ndef add(a, b):\n    return a+b"}
    ],
    max_tokens=1024,
    temperature=0.7
)

print(response.choices[0].message.content)
javascript
import OpenAI from "openai";

const client = new OpenAI({
  apiKey: "YOUR_API_KEY",
  baseURL: "https://1688token.ai/v1"
});

const response = await client.chat.completions.create({
  model: "claude-sonnet-4-6",
  messages: [
    { role: "system", content: "你是一个专业的代码审查助手。" },
    { role: "user", content: "请帮我审查以下 Python 代码,指出潜在问题:\n\ndef add(a, b):\n    return a+b" }
  ],
  max_tokens: 1024,
  temperature: 0.7
});

console.log(response.choices[0].message.content);
bash
curl https://1688token.ai/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -d '{
    "model": "claude-sonnet-4-6",
    "messages": [
      {"role": "system", "content": "你是一个专业的代码审查助手。"},
      {"role": "user", "content": "请帮我审查以下 Python 代码,指出潜在问题。"}
    ],
    "max_tokens": 1024
  }'

流式输出

python
from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://1688token.ai/v1"
)

stream = client.chat.completions.create(
    model="claude-sonnet-4-6",
    messages=[{"role": "user", "content": "请写一篇关于 AI 发展的短文"}],
    max_tokens=1024,
    stream=True
)

for chunk in stream:
    delta = chunk.choices[0].delta.content
    if delta:
        print(delta, end="", flush=True)

响应示例

json
{
  "id": "chatcmpl-abc123",
  "object": "chat.completion",
  "created": 1715000000,
  "model": "claude-sonnet-4-6",
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "这段代码整体结构简洁,但有以下几点可以改进..."
      },
      "finish_reason": "end_turn"
    }
  ],
  "usage": {
    "prompt_tokens": 52,
    "completion_tokens": 128,
    "total_tokens": 180
  }
}

支持的模型

模型上下文窗口说明
claude-opus-4-7200K最强推理能力,适合复杂分析和长文档
claude-sonnet-4-6200K性能与速度均衡,推荐日常使用
claude-haiku-4-5-20251001200K轻量快速,适合高并发、低延迟场景

注意事项

  • Claude 模型的 max_tokens 参数为必填项,建议根据实际需求设置
  • temperature 范围为 0~1(与 GPT 系列的 0~2 不同)
  • finish_reasonend_turn 时表示正常结束(GPT 系列为 stop