Seedance 2.0 | Special Offer ✦ 10% OFF NOW
google
google/gemini-2.5-pro

google/gemini-2.5-pro

1,048,576 context · $1.25/M input tokens · $10.00/M output tokens

Gemini 2.5 Pro is Google’s state-of-the-art AI model designed for advanced reasoning, coding, mathematics, and scientific tasks. It employs “thinking” capabilities, enabling it to reason through responses with enhanced accuracy...

Cennik

Płać za użycie

Bez kosztów początkowych, płacisz tylko za to, czego używasz

Wejście
200K $1.25 / M Tokens
> 200K $2.50 / M Tokens
Wyjście
200K $10.00 / M Tokens
> 200K $15.00 / M Tokens

Użycie API

Użyj poniższych przykładów kodu, aby zintegrować się z naszym API:

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="google/gemini-2.5-pro",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

Wprowadzenie do modelu

Google gemini-2.5-pro

google gemini-2.5-pro


Why It Looks Great

  • Large Language Model architecture for efficient processing
  • 1048576 context window for long document handling
  • Competitive pricing at $1.4/$11.0 per million tokens

Key Features

  • Context Window: 1048576 tokens
  • Max Output: 65536 tokens
  • Vision: Supported
  • Function Calling: Supported

Specifications

SpecificationValue
ProviderGoogle
Model TypeLarge Language Model (LLM)
ArchitectureN/A
Context Window1048576 tokens
Max Output65536 tokens
InputText
OutputText
VisionSupported
Function CallingSupported

Pricing

Token TypeCost per Million Tokens
Input$1.4
Output$11.0

How to Use

  1. Write your prompt — describe the task, provide context, and specify desired output format.
  2. Submit — the model processes your request and returns the response.

API Integration

Base URL: https://llm.wavespeed.ai/v1 API Endpoint: chat/completions Model ID: google/gemini-2.5-pro


API Usage

Python SDK

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="google/gemini-2.5-pro",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

cURL

curl https://llm.wavespeed.ai/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -d '{
    "model": "google/gemini-2.5-pro",
    "messages": [{"role": "user", "content": "Hello!"}]
  }'

Notes

  • Model: google/gemini-2.5-pro
  • Provider: Google

Info

Dostawcagoogle
Typllm

Obsługiwane funkcje

Wejście
TekstObrazAudio
Wyjście
Tekst
Kontekst1,048,576
Maks. wyjście65,536
Vision✓ Obsługiwane
Function Calling✓ Obsługiwane

Przewodnik dostępu do API

Base URLhttps://llm.wavespeed.ai/v1
API Endpointchat/completions
ID modelugoogle/gemini-2.5-pro

Gemini 2.5 Pro API

google/gemini-2.5-pro

Gemini 2.5 Pro is Google’s state-of-the-art AI model designed for advanced reasoning, coding, mathematics, and scientific tasks. It employs “thinking” capabilities, enabling it to reason through responses with enhanced accuracy...

Wejście

$1.25 /M

Wyjście

$10 /M

Kontekst

1049K

Maks. wyjście

66K

Vision

Obsługiwane

Użycie narzędzi

Obsługiwane

Wypróbuj Gemini 2.5 Pro w WaveSpeedAI

Uzyskaj dostęp do Gemini 2.5 Pro przez nasze ujednolicone API — kompatybilne z OpenAI, bez zimnych startów, przejrzyste ceny.

Otwórz Playground

Najczęstsze pytania o Gemini 2.5 Pro

Ile kosztuje API Gemini 2.5 Pro?+

Cennik na WaveSpeedAI: $1.25 za milion tokenów wejściowych i $10.00 za milion tokenów wyjściowych. Prompt caching i przetwarzanie wsadowe są rozliczane oddzielnie i obniżają efektywny koszt długich, powtarzalnych obciążeń.

Jakie jest okno kontekstu Gemini 2.5 Pro?+

Gemini 2.5 Pro obsługuje do 1049K tokenów kontekstu i do 66K tokenów wyjściowych na zapytanie.

Czy Gemini 2.5 Pro jest kompatybilny z OpenAI?+

Tak. WaveSpeedAI udostępnia Gemini 2.5 Pro przez endpoint kompatybilny z OpenAI pod https://llm.wavespeed.ai/v1. Skieruj oficjalny OpenAI SDK na ten base URL ze swoim kluczem API WaveSpeedAI — bez innych zmian w kodzie.

Jak zacząć z Gemini 2.5 Pro?+

Zaloguj się do WaveSpeedAI, utwórz klucz API w Access Keys, a następnie wyślij żądanie na https://llm.wavespeed.ai/v1/chat/completions z id modelu pokazanym powyżej. Nowe konta otrzymują darmowe kredyty na ocenę Gemini 2.5 Pro.

Powiązane API LLM