メインコンテンツへスキップ
POST
/
v1
/
chat
/
completions
curl -X POST https://qingbo.dev/v1/chat/completions \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "gpt-5",
    "messages": [
      {
        "role": "system",
        "content": "你是一个专业的AI助手。"
      },
      {
        "role": "user",
        "content": "解释一下冒泡排序算法。"
      }
    ],
    "temperature": 0.7,
    "max_tokens": 1024
  }'
{
  "id": "chatcmpl-CdA8u0qPqzeN2gu8QLuQfjaP9CHU4",
  "object": "chat.completion",
  "created": 1763449816,
  "model": "gpt-5-2025-08-07",
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "冒泡排序(Bubble Sort)是一种简单的比较交换排序。它通过重复遍历序列,比较相邻元素并把较大的"冒泡"到右侧末端,直到序列有序。\n\n核心思想\n- 每一趟从左到右比较相邻元素,若前者大于后者则交换。一次趟结束后,当前未排部分中最大的元素被放到末尾。\n- 重复多趟,直到没有发生交换或已完成 n−1 趟。\n\n流程示例(以 [5, 1, 4, 2] 为例)\n- 第1趟:比较并交换 → [1, 5, 4, 2] → [1, 4, 5, 2] → [1, 4, 2, 5](最大元素5到末尾)\n- 第2趟:比较并交换 → [1, 4, 2, 5] → [1, 2, 4, 5](已整体有序,可提前结束)\n\n性质\n- 时间复杂度:平均/最坏 O(n^2),最好 O(n)(当已基本有序且使用提前退出优化)\n- 空间复杂度:O(1)(就地排序)\n- 稳定性:稳定(相等元素相对次序不变)\n- 适用场景:数据量小或序列几乎有序;不适合大规模无序数据\n\n常见优化\n- 提前退出:某趟未发生交换则已排序完成。\n- 缩短边界:记录本趟最后一次交换的位置,下一趟只需遍历到该位置。\n- 双向冒泡(鸡尾酒排序):从左到右、再从右到左各走一遍,更快收敛。\n\n简要伪代码\nfunction bubbleSort(a):\n    n = length(a)\n    repeat\n        swapped = false\n        for j = 0 to n-2:\n            if a[j] > a[j+1]:\n                swap(a[j], a[j+1])\n                swapped = true\n        n = n - 1    // 末尾已就位,缩短范围\n    until swapped == false\n\n如需,我可以给出某种语言的实现代码或更多变体说明。",
        "refusal": null,
        "annotations": []
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 24,
    "completion_tokens": 1030,
    "total_tokens": 1054,
    "prompt_tokens_details": {
      "cached_tokens": 0,
      "audio_tokens": 0
    },
    "completion_tokens_details": {
      "reasoning_tokens": 512,
      "audio_tokens": 0,
      "accepted_prediction_tokens": 0,
      "rejected_prediction_tokens": 0
    }
  }
}
  • 統一されたチャット API インターフェース、全ての主要テキスト生成モデルに対応
  • OpenAI Chat Completions API フォーマットと完全互換
  • model パラメータで異なる AI モデルにシームレスに切り替え可能
  • ストリーミング出力、関数呼び出しなどの高度な機能に対応
curl -X POST https://qingbo.dev/v1/chat/completions \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "gpt-5",
    "messages": [
      {
        "role": "system",
        "content": "你是一个专业的AI助手。"
      },
      {
        "role": "user",
        "content": "解释一下冒泡排序算法。"
      }
    ],
    "temperature": 0.7,
    "max_tokens": 1024
  }'
{
  "id": "chatcmpl-CdA8u0qPqzeN2gu8QLuQfjaP9CHU4",
  "object": "chat.completion",
  "created": 1763449816,
  "model": "gpt-5-2025-08-07",
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "冒泡排序(Bubble Sort)是一种简单的比较交换排序。它通过重复遍历序列,比较相邻元素并把较大的"冒泡"到右侧末端,直到序列有序。\n\n核心思想\n- 每一趟从左到右比较相邻元素,若前者大于后者则交换。一次趟结束后,当前未排部分中最大的元素被放到末尾。\n- 重复多趟,直到没有发生交换或已完成 n−1 趟。\n\n流程示例(以 [5, 1, 4, 2] 为例)\n- 第1趟:比较并交换 → [1, 5, 4, 2] → [1, 4, 5, 2] → [1, 4, 2, 5](最大元素5到末尾)\n- 第2趟:比较并交换 → [1, 4, 2, 5] → [1, 2, 4, 5](已整体有序,可提前结束)\n\n性质\n- 时间复杂度:平均/最坏 O(n^2),最好 O(n)(当已基本有序且使用提前退出优化)\n- 空间复杂度:O(1)(就地排序)\n- 稳定性:稳定(相等元素相对次序不变)\n- 适用场景:数据量小或序列几乎有序;不适合大规模无序数据\n\n常见优化\n- 提前退出:某趟未发生交换则已排序完成。\n- 缩短边界:记录本趟最后一次交换的位置,下一趟只需遍历到该位置。\n- 双向冒泡(鸡尾酒排序):从左到右、再从右到左各走一遍,更快收敛。\n\n简要伪代码\nfunction bubbleSort(a):\n    n = length(a)\n    repeat\n        swapped = false\n        for j = 0 to n-2:\n            if a[j] > a[j+1]:\n                swap(a[j], a[j+1])\n                swapped = true\n        n = n - 1    // 末尾已就位,缩短范围\n    until swapped == false\n\n如需,我可以给出某种语言的实现代码或更多变体说明。",
        "refusal": null,
        "annotations": []
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 24,
    "completion_tokens": 1030,
    "total_tokens": 1054,
    "prompt_tokens_details": {
      "cached_tokens": 0,
      "audio_tokens": 0
    },
    "completion_tokens_details": {
      "reasoning_tokens": 512,
      "audio_tokens": 0,
      "accepted_prediction_tokens": 0,
      "rejected_prediction_tokens": 0
    }
  }
}

Authorizations

Authorization
string
必須
全てのインターフェースで Bearer Token 認証が必要ですAPI Key の取得:API Key 管理ページ にアクセスして API Key を取得してくださいリクエストヘッダーに以下を追加してください:
Authorization: Bearer YOUR_API_KEY

Body

model
string
必須
モデル名対応モデル:
  • OpenAI: gpt-5, gpt-5-chat-latest, gpt-5-mini, gpt-5-nano, gpt-5-pro
  • Anthropic: claude-sonnet-4-5-20250929, claude-opus-4-1-20250805, claude-haiku-4-5-20251001, claude-opus-4-1-20250805-thinking, claude-sonnet-4-5-20250929-thinking
  • Google: gemini-2.5-pro, gemini-2.5-flash, gemini-2.5-pro-thinking, gemini-2.5-flash-lite,gemini-3-pro-preview-thinking,gemini-3-pro-image-preview,gemini-3-pro-preview
  • DeepSeek: deepseek-v3.1-250821, deepseek-v3.1-think-250821, deepseek-v3-0324
  • Doubao: doubao-seed-1-6-251015, doubao-seed-1-6-flash-250828, doubao-seed-1-6-thinking-250715
  • X.AI: grok-4.1
  • その他のモデルも随時追加中…
messages
array
必須
会話メッセージリスト
temperature
number
出力のランダム性を制御、範囲 0-2
  • 低い値(例:0.2)で出力がより確定的になります
  • 高い値(例:1.8)で出力がよりランダムになります
デフォルト値:1.0
max_tokens
integer
生成する最大 Token 数モデルごとに最大値の制限が異なります。各モデルのドキュメントを参照してください
stream
boolean
ストリーミング出力を使用するかどうか
  • true: ストリーミング返却(SSE 形式)
  • false: 完全なレスポンスを一括返却
デフォルト値:false
top_p
number
核サンプリングパラメータ、範囲 0-1生成テキストの多様性を制御します。temperature との併用ではなく、どちらか一方の使用を推奨しますデフォルト値:1.0
frequency_penalty
number
頻度ペナルティ、範囲 -2.0 から 2.0正の値を設定すると、同じ語彙の繰り返し使用が抑制されますデフォルト値:0
presence_penalty
number
存在ペナルティ、範囲 -2.0 から 2.0正の値を設定すると、新しいトピックについて話す可能性が高まりますデフォルト値:0
stop
string or array
停止シーケンス最大4つのシーケンスを指定でき、これらのシーケンスに遭遇すると生成が停止します
n
integer
生成する応答の数デフォルト値:1

Response

id
string
レスポンスの一意識別子
object
string
オブジェクトタイプ、固定値 chat.completion
created
integer
作成タイムスタンプ
model
string
実際に使用されたモデル名
choices
array
生成された応答リスト
usage
object
Token 使用統計
system_fingerprint
string
システムフィンガープリント識別子(バックエンド設定の追跡用)

対応モデル一覧

OpenAI シリーズ

  • gpt-5 - GPT-5 ベースモデル
  • gpt-5-chat-latest - GPT-5 最新対話バージョン
  • gpt-5-mini - GPT-5 軽量バージョン、コストパフォーマンスに優れる
  • gpt-5-nano - GPT-5 超軽量バージョン
  • gpt-5-pro - GPT-5 プロフェッショナル強化版
###X.ai シリーズ
  • grok-4.1 - Grok 4.1 高速レスポンスバージョン

Anthropic シリーズ

  • claude-haiku-4-5-20251001 - Claude 4.5 高速レスポンスバージョン
  • claude-sonnet-4-5-20250929 - Claude 4.5 バランスバージョン
  • claude-opus-4-1-20250805 - 最も強力な Claude 4.1 フラッグシップモデル
  • claude-opus-4-1-20250805-thinking - Claude 4.1 Opus 深層思考版
  • claude-sonnet-4-5-20250929-thinking - Claude 4.5 Sonnet 深層思考版

Google シリーズ

  • gemini-2.5-flash - Gemini 2.5 高速版
  • gemini-2.5-pro - Gemini 2.5 プロフェッショナル版
  • gemini-2.5-flash-lite - Gemini 2.5 超軽量版
  • gemini-2.5-pro-thinking - Gemini 2.5 Pro 深層思考版
  • gemini-3-pro-preview-thinking - Gemini 3 Pro 深層思考版
  • gemini-3-pro-preview - Gemini 3 Pro 深層思考版

DeepSeek シリーズ

  • deepseek-v3.1-250821 - DeepSeek V3.1 ベース版
  • deepseek-v3.1-think-250821 - DeepSeek V3.1 思考版
  • deepseek-v3-0324 - DeepSeek V3 スタンダード版

Doubao シリーズ

  • doubao-seed-1-6-flash-250828 - Doubao Seed 1.6 高速版
  • doubao-seed-1-6-thinking-250715 - Doubao Seed 1.6 思考版
  • doubao-seed-1-6-251015 - Doubao Seed 1.6 スタンダード版

使用例

基本的な対話

{
  "model": "gpt-5",
  "messages": [
    {"role": "user", "content": "你好"}
  ]
}

システムプロンプト

{
  "model": "claude-sonnet-4-5-20250929",
  "messages": [
    {"role": "system", "content": "你是一位专业的Python编程导师"},
    {"role": "user", "content": "如何使用列表推导式?"}
  ]
}

マルチターン対話

{
  "model": "gemini-2.5-flash",
  "messages": [
    {"role": "user", "content": "什么是机器学习?"},
    {"role": "assistant", "content": "机器学习是人工智能的一个分支..."},
    {"role": "user", "content": "能举个例子吗?"}
  ]
}

ストリーミング出力

{
  "model": "gpt-5",
  "messages": [
    {"role": "user", "content": "写一首关于春天的诗"}
  ],
  "stream": true
}

高度な機能

本インターフェースは基本的なテキスト対話に対応しています。以下の高度な機能を使用する場合は、各リファレンスをご参照ください: