Seedance 2.0 | Special Offer ✦ 10% OFF NOW | Ends May 13 (UTC+0)
google
google/gemma-3-12b-it

google/gemma-3-12b-it

131,072 context · $0.04/M input tokens · $0.13/M output tokens

Gemma 3 introduces multimodality, supporting vision-language input and text outputs. It handles context windows up to 128k tokens, understands over 140 languages, and offers improved math, reasoning, and chat capabilities,...

Cennik

Płać za użycie

Bez kosztów początkowych, płacisz tylko za to, czego używasz

Wejście$0.04 / M Tokens
Wyjście$0.13 / M Tokens

Wypróbuj model

google/gemma-3-12b-it
Online
google
Cześć! Jestem pomocnym asystentem AI. W czym mogę pomóc?

Użycie API

Użyj poniższych przykładów kodu, aby zintegrować się z naszym API:

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="google/gemma-3-12b-it",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

Wprowadzenie do modelu

Google gemma-3-12b-it

google gemma-3-12b-it


Why It Looks Great

  • Large Language Model architecture for efficient processing
  • 131072 context window for long document handling
  • Competitive pricing at $0.0/$0.1 per million tokens

Key Features

  • Context Window: 131072 tokens
  • Max Output: 131072 tokens
  • Vision: Supported
  • Function Calling: Supported

Specifications

SpecificationValue
ProviderGoogle
Model TypeLarge Language Model (LLM)
ArchitectureN/A
Context Window131072 tokens
Max Output131072 tokens
InputText
OutputText
VisionSupported
Function CallingSupported

Pricing

Token TypeCost per Million Tokens
Input$0.0
Output$0.1

How to Use

  1. Write your prompt — describe the task, provide context, and specify desired output format.
  2. Submit — the model processes your request and returns the response.

API Integration

Base URL: https://llm.wavespeed.ai/v1 API Endpoint: chat/completions Model ID: google/gemma-3-12b-it


API Usage

Python SDK

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="google/gemma-3-12b-it",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

cURL

curl https://llm.wavespeed.ai/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -d '{
    "model": "google/gemma-3-12b-it",
    "messages": [{"role": "user", "content": "Hello!"}]
  }'

Notes

  • Model: google/gemma-3-12b-it
  • Provider: Google

Info

Dostawcagoogle
Typllm

Obsługiwane funkcje

Wejście
TekstObraz
Wyjście
Tekst
Kontekst131,072
Maks. wyjście131,072
Vision✓ Obsługiwane
Function Calling-

Przewodnik dostępu do API

Base URLhttps://llm.wavespeed.ai/v1
API Endpointchat/completions
ID modelugoogle/gemma-3-12b-it

Gemma 3 12b It API

google/gemma-3-12b-it

Gemma 3 introduces multimodality, supporting vision-language input and text outputs. It handles context windows up to 128k tokens, understands over 140 languages, and offers improved math, reasoning, and chat capabilities,...

Wejście

$0.04 /M

Wyjście

$0.13 /M

Kontekst

131K

Maks. wyjście

131K

Vision

Obsługiwane

Wypróbuj Gemma 3 12b It w WaveSpeedAI

Uzyskaj dostęp do Gemma 3 12b It przez nasze ujednolicone API — kompatybilne z OpenAI, bez zimnych startów, przejrzyste ceny.

Najczęstsze pytania o Gemma 3 12b It

Ile kosztuje API Gemma 3 12b It?+

Cennik na WaveSpeedAI: $0.04 za milion tokenów wejściowych i $0.13 za milion tokenów wyjściowych. Prompt caching i przetwarzanie wsadowe są rozliczane oddzielnie i obniżają efektywny koszt długich, powtarzalnych obciążeń.

Jakie jest okno kontekstu Gemma 3 12b It?+

Gemma 3 12b It obsługuje do 131K tokenów kontekstu i do 131K tokenów wyjściowych na zapytanie.

Czy Gemma 3 12b It jest kompatybilny z OpenAI?+

Tak. WaveSpeedAI udostępnia Gemma 3 12b It przez endpoint kompatybilny z OpenAI pod https://llm.wavespeed.ai/v1. Skieruj oficjalny OpenAI SDK na ten base URL ze swoim kluczem API WaveSpeedAI — bez innych zmian w kodzie.

Jak zacząć z Gemma 3 12b It?+

Zaloguj się do WaveSpeedAI, utwórz klucz API w Access Keys, a następnie wyślij żądanie na https://llm.wavespeed.ai/v1/chat/completions z id modelu pokazanym powyżej. Nowe konta otrzymują darmowe kredyty na ocenę Gemma 3 12b It.

Powiązane API LLM