Seedance 2.0 | Special Offer ✦ 10% OFF NOW
google
google/gemini-2.0-flash-lite-001

google/gemini-2.0-flash-lite-001

1,048,576 context · $0.07/M input tokens · $0.30/M output tokens

Gemini 2.0 Flash Lite offers a significantly faster time to first token (TTFT) compared to Gemini Flash 1.5, while maintaining quality on par with larger models like Gemini Pro 1.5,...

Cennik

Płać za użycie

Bez kosztów początkowych, płacisz tylko za to, czego używasz

Wejście$0.07 / M Tokens
Wyjście$0.30 / M Tokens

Użycie API

Użyj poniższych przykładów kodu, aby zintegrować się z naszym API:

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="google/gemini-2.0-flash-lite-001",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

Wprowadzenie do modelu

Google gemini-2.0-flash-lite-001

google gemini-2.0-flash-lite-001


Why It Looks Great

  • Large Language Model architecture for efficient processing
  • 1048576 context window for long document handling
  • Competitive pricing at $0.1/$0.3 per million tokens

Key Features

  • Context Window: 1048576 tokens
  • Max Output: 8192 tokens
  • Vision: Supported
  • Function Calling: Supported

Specifications

SpecificationValue
ProviderGoogle
Model TypeLarge Language Model (LLM)
ArchitectureN/A
Context Window1048576 tokens
Max Output8192 tokens
InputText
OutputText
VisionSupported
Function CallingSupported

Pricing

Token TypeCost per Million Tokens
Input$0.1
Output$0.3

How to Use

  1. Write your prompt — describe the task, provide context, and specify desired output format.
  2. Submit — the model processes your request and returns the response.

API Integration

Base URL: https://llm.wavespeed.ai/v1 API Endpoint: chat/completions Model ID: google/gemini-2.0-flash-lite-001


API Usage

Python SDK

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="google/gemini-2.0-flash-lite-001",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

cURL

curl https://llm.wavespeed.ai/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -d '{
    "model": "google/gemini-2.0-flash-lite-001",
    "messages": [{"role": "user", "content": "Hello!"}]
  }'

Notes

  • Model: google/gemini-2.0-flash-lite-001
  • Provider: Google

Info

Dostawcagoogle
Typllm

Obsługiwane funkcje

Wejście
TekstObrazAudio
Wyjście
Tekst
Kontekst1,048,576
Maks. wyjście8,192
Vision✓ Obsługiwane
Function Calling✓ Obsługiwane

Przewodnik dostępu do API

Base URLhttps://llm.wavespeed.ai/v1
API Endpointchat/completions
ID modelugoogle/gemini-2.0-flash-lite-001

Gemini 2.0 Flash Lite 001 API

google/gemini-2.0-flash-lite-001

Gemini 2.0 Flash Lite offers a significantly faster time to first token (TTFT) compared to Gemini Flash 1.5, while maintaining quality on par with larger models like Gemini Pro 1.5,...

Wejście

$0.075 /M

Wyjście

$0.3 /M

Kontekst

1049K

Maks. wyjście

8K

Vision

Obsługiwane

Użycie narzędzi

Obsługiwane

Wypróbuj Gemini 2.0 Flash Lite 001 w WaveSpeedAI

Uzyskaj dostęp do Gemini 2.0 Flash Lite 001 przez nasze ujednolicone API — kompatybilne z OpenAI, bez zimnych startów, przejrzyste ceny.

Otwórz Playground

Najczęstsze pytania o Gemini 2.0 Flash Lite 001

Ile kosztuje API Gemini 2.0 Flash Lite 001?+

Cennik na WaveSpeedAI: $0.07 za milion tokenów wejściowych i $0.30 za milion tokenów wyjściowych. Prompt caching i przetwarzanie wsadowe są rozliczane oddzielnie i obniżają efektywny koszt długich, powtarzalnych obciążeń.

Jakie jest okno kontekstu Gemini 2.0 Flash Lite 001?+

Gemini 2.0 Flash Lite 001 obsługuje do 1049K tokenów kontekstu i do 8K tokenów wyjściowych na zapytanie.

Czy Gemini 2.0 Flash Lite 001 jest kompatybilny z OpenAI?+

Tak. WaveSpeedAI udostępnia Gemini 2.0 Flash Lite 001 przez endpoint kompatybilny z OpenAI pod https://llm.wavespeed.ai/v1. Skieruj oficjalny OpenAI SDK na ten base URL ze swoim kluczem API WaveSpeedAI — bez innych zmian w kodzie.

Jak zacząć z Gemini 2.0 Flash Lite 001?+

Zaloguj się do WaveSpeedAI, utwórz klucz API w Access Keys, a następnie wyślij żądanie na https://llm.wavespeed.ai/v1/chat/completions z id modelu pokazanym powyżej. Nowe konta otrzymują darmowe kredyty na ocenę Gemini 2.0 Flash Lite 001.

Powiązane API LLM