google/gemini-2.0-flash-001
1,048,576 context · $0.10/M input tokens · $0.40/M output tokens
Gemini Flash 2.0 offers a significantly faster time to first token (TTFT) compared to Gemini Flash 1.5, while maintaining quality on par with larger models like Gemini Pro 1.5. It...
Płać za użycie
Bez kosztów początkowych, płacisz tylko za to, czego używasz
Użyj poniższych przykładów kodu, aby zintegrować się z naszym API:
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://llm.wavespeed.ai/v1"
)
response = client.chat.completions.create(
model="google/gemini-2.0-flash-001",
messages=[
{"role": "user", "content": "Hello!"}
]
)
print(response.choices[0].message.content)google gemini-2.0-flash-001
| Specification | Value |
|---|---|
| Provider | |
| Model Type | Large Language Model (LLM) |
| Architecture | N/A |
| Context Window | 1048576 tokens |
| Max Output | 8192 tokens |
| Input | Text |
| Output | Text |
| Vision | Supported |
| Function Calling | Supported |
| Token Type | Cost per Million Tokens |
|---|---|
| Input | $0.1 |
| Output | $0.4 |
Base URL: https://llm.wavespeed.ai/v1 API Endpoint: chat/completions Model ID: google/gemini-2.0-flash-001
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://llm.wavespeed.ai/v1"
)
response = client.chat.completions.create(
model="google/gemini-2.0-flash-001",
messages=[
{"role": "user", "content": "Hello!"}
]
)
print(response.choices[0].message.content)
curl https://llm.wavespeed.ai/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer YOUR_API_KEY" \
-d '{
"model": "google/gemini-2.0-flash-001",
"messages": [{"role": "user", "content": "Hello!"}]
}'
google/gemini-2.0-flash-001
Gemini Flash 2.0 offers a significantly faster time to first token (TTFT) compared to Gemini Flash 1.5, while maintaining quality on par with larger models like Gemini Pro 1.5. It...
Wejście
$0.1 /M
Wyjście
$0.4 /M
Kontekst
1049K
Maks. wyjście
8K
Vision
Obsługiwane
Użycie narzędzi
Obsługiwane
Uzyskaj dostęp do Gemini 2.0 Flash 001 przez nasze ujednolicone API — kompatybilne z OpenAI, bez zimnych startów, przejrzyste ceny.
Otwórz PlaygroundCennik na WaveSpeedAI: $0.10 za milion tokenów wejściowych i $0.40 za milion tokenów wyjściowych. Prompt caching i przetwarzanie wsadowe są rozliczane oddzielnie i obniżają efektywny koszt długich, powtarzalnych obciążeń.
Gemini 2.0 Flash 001 obsługuje do 1049K tokenów kontekstu i do 8K tokenów wyjściowych na zapytanie.
Tak. WaveSpeedAI udostępnia Gemini 2.0 Flash 001 przez endpoint kompatybilny z OpenAI pod https://llm.wavespeed.ai/v1. Skieruj oficjalny OpenAI SDK na ten base URL ze swoim kluczem API WaveSpeedAI — bez innych zmian w kodzie.
Zaloguj się do WaveSpeedAI, utwórz klucz API w Access Keys, a następnie wyślij żądanie na https://llm.wavespeed.ai/v1/chat/completions z id modelu pokazanym powyżej. Nowe konta otrzymują darmowe kredyty na ocenę Gemini 2.0 Flash 001.