google/gemini-2.5-pro
1,048,576 context · $1.25/M input tokens · $10.00/M output tokens
Gemini 2.5 Pro is Google’s state-of-the-art AI model designed for advanced reasoning, coding, mathematics, and scientific tasks. It employs “thinking” capabilities, enabling it to reason through responses with enhanced accuracy...
จ่ายตามการใช้งาน
ไม่มีค่าใช้จ่ายล่วงหน้า จ่ายเฉพาะสิ่งที่คุณใช้
ใช้ตัวอย่างโค้ดต่อไปนี้เพื่อผสานรวมกับ API ของเรา:
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://llm.wavespeed.ai/v1"
)
response = client.chat.completions.create(
model="google/gemini-2.5-pro",
messages=[
{"role": "user", "content": "Hello!"}
]
)
print(response.choices[0].message.content)google gemini-2.5-pro
| Specification | Value |
|---|---|
| Provider | |
| Model Type | Large Language Model (LLM) |
| Architecture | N/A |
| Context Window | 1048576 tokens |
| Max Output | 65536 tokens |
| Input | Text |
| Output | Text |
| Vision | Supported |
| Function Calling | Supported |
| Token Type | Cost per Million Tokens |
|---|---|
| Input | $1.4 |
| Output | $11.0 |
Base URL: https://llm.wavespeed.ai/v1 API Endpoint: chat/completions Model ID: google/gemini-2.5-pro
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://llm.wavespeed.ai/v1"
)
response = client.chat.completions.create(
model="google/gemini-2.5-pro",
messages=[
{"role": "user", "content": "Hello!"}
]
)
print(response.choices[0].message.content)
curl https://llm.wavespeed.ai/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer YOUR_API_KEY" \
-d '{
"model": "google/gemini-2.5-pro",
"messages": [{"role": "user", "content": "Hello!"}]
}'
google/gemini-2.5-pro
Gemini 2.5 Pro is Google’s state-of-the-art AI model designed for advanced reasoning, coding, mathematics, and scientific tasks. It employs “thinking” capabilities, enabling it to reason through responses with enhanced accuracy...
อินพุต
$1.25 /M
เอาต์พุต
$10 /M
คอนเท็กซ์
1049K
เอาต์พุตสูงสุด
66K
Vision
รองรับ
การใช้เครื่องมือ
รองรับ
เข้าถึง Gemini 2.5 Pro ผ่าน API แบบรวมของเรา — เข้ากันได้กับ OpenAI ไม่มี cold start ราคาโปร่งใส
เปิด Playgroundราคาบน WaveSpeedAI: $1.25 ต่อล้านโทเคนอินพุต และ $10.00 ต่อล้านโทเคนเอาต์พุต Prompt caching และ batch processing คิดค่าบริการแยกและช่วยลดต้นทุนที่แท้จริงสำหรับภาระงานที่ยาวและทำซ้ำ
Gemini 2.5 Pro รองรับสูงสุด 1049K โทเคนคอนเท็กซ์ และสูงสุด 66K โทเคนเอาต์พุตต่อคำขอ
ใช่ WaveSpeedAI ให้บริการ Gemini 2.5 Pro ผ่าน endpoint ที่เข้ากันได้กับ OpenAI ที่ https://llm.wavespeed.ai/v1 ชี้ OpenAI SDK ทางการมาที่ base URL นี้ด้วย API key ของ WaveSpeedAI — ไม่ต้องแก้ไขโค้ดอื่น
ลงชื่อเข้าใช้ WaveSpeedAI สร้าง API key ใน Access Keys จากนั้นส่งคำขอไปยัง https://llm.wavespeed.ai/v1/chat/completions พร้อม model id ที่แสดงด้านบน บัญชีใหม่จะได้รับเครดิตฟรีสำหรับทดลองใช้ Gemini 2.5 Pro