跳转到主要内容
POST
/
v1
/
models
/
{model}
:generateContent
curl -X POST https://qingbo.dev/v1/models/gemini-2.5-flash:generateContent \
  -H "x-goog-api-key: YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "contents": [
      {
        "role": "user",
        "parts": [
          {"text": "解释一下冒泡排序算法。"}
        ]
      }
    ],
    "generationConfig": {
      "temperature": 0.7,
      "maxOutputTokens": 1024
    }
  }'
Gemini 原生格式 API 提供了与 Google Gemini 模型交互的原生接口,支持多模态输入和高级功能。
curl -X POST https://qingbo.dev/v1/models/gemini-2.5-flash:generateContent \
  -H "x-goog-api-key: YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "contents": [
      {
        "role": "user",
        "parts": [
          {"text": "解释一下冒泡排序算法。"}
        ]
      }
    ],
    "generationConfig": {
      "temperature": 0.7,
      "maxOutputTokens": 1024
    }
  }'

概述

支持的模型

Gemini 2.5 Pro

专业版,强大的推理能力

Gemini 2.5 Flash

快速版,速度与性能平衡

Gemini 2.5 Flash Lite

超轻量版,极致响应速度

Gemini 3 Pro Preview

最新一代预览版,支持深度思考

请求参数

model
string
必填
模型 ID,作为 URL 路径参数:
  • gemini-2.5-pro
  • gemini-2.5-flash
  • gemini-2.5-flash-lite
  • gemini-2.5-pro-thinking
  • gemini-3-pro-preview
  • gemini-3-pro-preview-thinking
contents
array
必填
对话内容数组。
generationConfig
object
生成配置。

请求示例

curl https://qingbo.dev/v1/models/gemini-2.5-flash:generateContent \
  -H "Content-Type: application/json" \
  -H "x-goog-api-key: YOUR_API_KEY" \
  -d '{
    "contents": [
      {
        "role": "user",
        "parts": [
          {
            "text": "解释量子计算的基本原理"
          }
        ]
      }
    ],
    "generationConfig": {
      "temperature": 0.7,
      "maxOutputTokens": 1000,
      "topP": 0.95
    }
  }'

响应格式

{
  "candidates": [
    {
      "content": {
        "role": "model",
        "parts": [
          {
            "text": "量子计算是一种利用量子力学原理..."
          }
        ]
      },
      "finishReason": "STOP",
      "safetyRatings": [...]
    }
  ],
  "usageMetadata": {
    "promptTokenCount": 12,
    "candidatesTokenCount": 156,
    "totalTokenCount": 168
  }
}

多模态输入

Gemini 支持文本和图像的混合输入:
import PIL.Image

# 加载图像
img = PIL.Image.open('image.jpg')

# 发送文本和图像
response = model.generate_content([
    "描述这张图片中的内容",
    img
])

print(response.text)

流式输出

response = model.generate_content(
    "写一个关于AI的故事",
    stream=True
)

for chunk in response:
    print(chunk.text, end="")

安全设置

控制内容过滤级别:
from google.generativeai.types import HarmCategory, HarmBlockThreshold

response = model.generate_content(
    "你的提示词",
    safety_settings={
        HarmCategory.HARM_CATEGORY_HATE_SPEECH: HarmBlockThreshold.BLOCK_ONLY_HIGH,
        HarmCategory.HARM_CATEGORY_HARASSMENT: HarmBlockThreshold.BLOCK_ONLY_HIGH,
    }
)

特性对比

特性Gemini 2.0 FlashGemini 1.5 ProGemini 1.5 Flash
上下文窗口100万 tokens200万 tokens100万 tokens
多模态输入
代码生成
速度极快极快
长上下文处理: Gemini 1.5 Pro 支持最多 200 万 tokens 的上下文,适合处理长文档和视频分析。