Seedance 2.0 | Special Offer ✦ 10% OFF NOW | Ends May 13 (UTC+0)
google
google/gemma-3-27b-it

google/gemma-3-27b-it

131,072 context · $0.08/M input tokens · $0.16/M output tokens

Gemma 3 introduces multimodality, supporting vision-language input and text outputs. It handles context windows up to 128k tokens, understands over 140 languages, and offers improved math, reasoning, and chat capabilities,...

Preise

Pay-per-Use

Keine Vorabkosten, zahlen Sie nur, was Sie nutzen

Eingabe$0.08 / M Tokens
Ausgabe$0.16 / M Tokens

API-Nutzung

Verwenden Sie die folgenden Codebeispiele zur Integration mit unserer API:

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="google/gemma-3-27b-it",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

Modelleinführung

Google gemma-3-27b-it

Gemma 3 introduces multimodality, supporting vision-language input and text outputs

Gemma 3 introduces multimodality, supporting vision-language input and text outputs. It handles context windows up to 128k tokens, understands over 140 languages, and offers improved math, reasoning, and chat capabilities, including structured outputs and function calling. Gemma 3 27B is Google's latest open source model, successor to Gemma 2


Why It Looks Great

  • Large Language Model architecture for efficient processing
  • 128000 context window for long document handling
  • Competitive pricing at $0.0/$0.2 per million tokens

Key Features

  • Context Window: 128000 tokens
  • Max Output: 65536 tokens
  • Vision: Supported
  • Function Calling: Supported

Specifications

SpecificationValue
ProviderGoogle
Model TypeLarge Language Model (LLM)
ArchitectureN/A
Context Window128000 tokens
Max Output65536 tokens
InputText
OutputText
VisionSupported
Function CallingSupported

Pricing

Token TypeCost per Million Tokens
Input$0.0
Output$0.2

How to Use

  1. Write your prompt — describe the task, provide context, and specify desired output format.
  2. Submit — the model processes your request and returns the response.

API Integration

Base URL: https://llm.wavespeed.ai/v1 API Endpoint: chat/completions Model ID: google/gemma-3-27b-it


API Usage

Python SDK

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="google/gemma-3-27b-it",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

cURL

curl https://llm.wavespeed.ai/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -d '{
    "model": "google/gemma-3-27b-it",
    "messages": [{"role": "user", "content": "Hello!"}]
  }'

Notes

  • Model: google/gemma-3-27b-it
  • Provider: Google

Info

Anbietergoogle
Typllm

Unterstützte Funktionen

Eingabe
TextBild
Ausgabe
Text
Kontext131,072
Max. Ausgabe16,384
Vision✓ Unterstützt
Function Calling✓ Unterstützt

API-Zugriffsanleitung

Base URLhttps://llm.wavespeed.ai/v1
API-Endpunktchat/completions
Modell-IDgoogle/gemma-3-27b-it

Gemma 3 27b It API

google/gemma-3-27b-it

Gemma 3 introduces multimodality, supporting vision-language input and text outputs. It handles context windows up to 128k tokens, understands over 140 languages, and offers improved math, reasoning, and chat capabilities,...

Eingabe

$0.08 /M

Ausgabe

$0.16 /M

Kontext

131K

Max. Ausgabe

16K

Vision

Unterstützt

Tool-Nutzung

Unterstützt

Gemma 3 27b It auf WaveSpeedAI testen

Zugriff auf Gemma 3 27b It über unsere einheitliche API — OpenAI-kompatibel, keine Kaltstarts, transparente Preise.

Häufige Fragen zu Gemma 3 27b It

Wie viel kostet die Gemma 3 27b It-API?+

Preise auf WaveSpeedAI: $0.08 pro Million Input-Tokens und $0.16 pro Million Output-Tokens. Prompt-Caching und Batch-Verarbeitung werden separat berechnet und reduzieren die effektiven Kosten bei langen, sich wiederholenden Workloads.

Wie groß ist das Kontextfenster von Gemma 3 27b It?+

Gemma 3 27b It unterstützt bis zu 131K Kontext-Tokens und bis zu 16K Output-Tokens pro Anfrage.

Ist Gemma 3 27b It OpenAI-kompatibel?+

Ja. WaveSpeedAI stellt Gemma 3 27b It über einen OpenAI-kompatiblen Endpunkt unter https://llm.wavespeed.ai/v1 bereit. Richten Sie das offizielle OpenAI SDK mit Ihrem WaveSpeedAI-API-Schlüssel auf diese Base-URL — keine weiteren Codeänderungen erforderlich.

Wie starte ich mit Gemma 3 27b It?+

Bei WaveSpeedAI anmelden, in Access Keys einen API-Schlüssel erstellen und eine Anfrage an https://llm.wavespeed.ai/v1/chat/completions mit der oben angezeigten Model-ID senden. Neue Konten erhalten kostenlose Credits, um Gemma 3 27b It zu testen.

Verwandte LLM-APIs