Seedance 2.0 | Special Offer ✦ 10% OFF NOW
google
google/gemini-2.0-flash-lite-001

google/gemini-2.0-flash-lite-001

1,048,576 context · $0.07/M input tokens · $0.30/M output tokens

Gemini 2.0 Flash Lite offers a significantly faster time to first token (TTFT) compared to Gemini Flash 1.5, while maintaining quality on par with larger models like Gemini Pro 1.5,...

Precios

Pago por uso

Sin costos iniciales, paga solo por lo que uses

Entrada$0.07 / M Tokens
Salida$0.30 / M Tokens

Uso de API

Usa los siguientes ejemplos de código para integrar con nuestra API:

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="google/gemini-2.0-flash-lite-001",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

Introducción del modelo

Google gemini-2.0-flash-lite-001

google gemini-2.0-flash-lite-001


Why It Looks Great

  • Large Language Model architecture for efficient processing
  • 1048576 context window for long document handling
  • Competitive pricing at $0.1/$0.3 per million tokens

Key Features

  • Context Window: 1048576 tokens
  • Max Output: 8192 tokens
  • Vision: Supported
  • Function Calling: Supported

Specifications

SpecificationValue
ProviderGoogle
Model TypeLarge Language Model (LLM)
ArchitectureN/A
Context Window1048576 tokens
Max Output8192 tokens
InputText
OutputText
VisionSupported
Function CallingSupported

Pricing

Token TypeCost per Million Tokens
Input$0.1
Output$0.3

How to Use

  1. Write your prompt — describe the task, provide context, and specify desired output format.
  2. Submit — the model processes your request and returns the response.

API Integration

Base URL: https://llm.wavespeed.ai/v1 API Endpoint: chat/completions Model ID: google/gemini-2.0-flash-lite-001


API Usage

Python SDK

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="google/gemini-2.0-flash-lite-001",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

cURL

curl https://llm.wavespeed.ai/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -d '{
    "model": "google/gemini-2.0-flash-lite-001",
    "messages": [{"role": "user", "content": "Hello!"}]
  }'

Notes

  • Model: google/gemini-2.0-flash-lite-001
  • Provider: Google

Información

Proveedorgoogle
Tipollm

Funcionalidades compatibles

Entrada
TextoImagenAudio
Salida
Texto
Contexto1,048,576
Salida máxima8,192
Visión✓ Compatible
Function Calling✓ Compatible

Guía de acceso a la API

Base URLhttps://llm.wavespeed.ai/v1
API Endpointchat/completions
ID del modelogoogle/gemini-2.0-flash-lite-001

Gemini 2.0 Flash Lite 001 API

google/gemini-2.0-flash-lite-001

Gemini 2.0 Flash Lite offers a significantly faster time to first token (TTFT) compared to Gemini Flash 1.5, while maintaining quality on par with larger models like Gemini Pro 1.5,...

Entrada

$0.075 /M

Salida

$0.3 /M

Contexto

1049K

Salida máx.

8K

Visión

Compatible

Uso de herramientas

Compatible

Prueba Gemini 2.0 Flash Lite 001 en WaveSpeedAI

Accede a Gemini 2.0 Flash Lite 001 mediante nuestra API unificada — compatible con OpenAI, sin arranques en frío, precios transparentes.

Abrir Playground

Preguntas frecuentes sobre Gemini 2.0 Flash Lite 001

¿Cuánto cuesta Gemini 2.0 Flash Lite 001 a través de la API?+

Precios en WaveSpeedAI: $0.07 por millón de tokens de entrada y $0.30 por millón de tokens de salida. El prompt caching y el procesamiento por lotes se facturan por separado y reducen el coste efectivo en cargas largas y repetitivas.

¿Cuál es la ventana de contexto de Gemini 2.0 Flash Lite 001?+

Gemini 2.0 Flash Lite 001 admite hasta 1049K tokens de contexto y hasta 8K tokens de salida por solicitud.

¿Es Gemini 2.0 Flash Lite 001 compatible con OpenAI?+

Sí. WaveSpeedAI expone Gemini 2.0 Flash Lite 001 a través de un endpoint compatible con OpenAI en https://llm.wavespeed.ai/v1. Apunta el SDK oficial de OpenAI a esta base URL con tu clave API de WaveSpeedAI — sin más cambios de código.

¿Cómo empiezo con Gemini 2.0 Flash Lite 001?+

Inicia sesión en WaveSpeedAI, crea una clave API en Access Keys y envía una solicitud a https://llm.wavespeed.ai/v1/chat/completions con el id de modelo mostrado arriba. Las cuentas nuevas reciben créditos gratuitos para evaluar Gemini 2.0 Flash Lite 001 antes de pagar por token.

APIs LLM relacionadas