google/gemma-3n-e4b-it
32,768 context · $0.06/M input tokens · $0.12/M output tokens
Gemma 3n E4B-it is optimized for efficient execution on mobile and low-resource devices, such as phones, laptops, and tablets. It supports multimodal inputs—including text, visual data, and audio—enabling diverse tasks...
Płać za użycie
Bez kosztów początkowych, płacisz tylko za to, czego używasz
Użyj poniższych przykładów kodu, aby zintegrować się z naszym API:
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://llm.wavespeed.ai/v1"
)
response = client.chat.completions.create(
model="google/gemma-3n-e4b-it",
messages=[
{"role": "user", "content": "Hello!"}
]
)
print(response.choices[0].message.content)google gemma-3n-e4b-it
| Specification | Value |
|---|---|
| Provider | |
| Model Type | Large Language Model (LLM) |
| Architecture | N/A |
| Context Window | 32768 tokens |
| Max Output | 4096 tokens |
| Input | Text |
| Output | Text |
| Vision | Supported |
| Function Calling | Supported |
| Token Type | Cost per Million Tokens |
|---|---|
| Input | $0.0 |
| Output | $0.0 |
Base URL: https://llm.wavespeed.ai/v1 API Endpoint: chat/completions Model ID: google/gemma-3n-e4b-it
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://llm.wavespeed.ai/v1"
)
response = client.chat.completions.create(
model="google/gemma-3n-e4b-it",
messages=[
{"role": "user", "content": "Hello!"}
]
)
print(response.choices[0].message.content)
curl https://llm.wavespeed.ai/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer YOUR_API_KEY" \
-d '{
"model": "google/gemma-3n-e4b-it",
"messages": [{"role": "user", "content": "Hello!"}]
}'
google/gemma-3n-e4b-it
Gemma 3n E4B-it is optimized for efficient execution on mobile and low-resource devices, such as phones, laptops, and tablets. It supports multimodal inputs—including text, visual data, and audio—enabling diverse tasks...
Wejście
$0.06 /M
Wyjście
$0.12 /M
Kontekst
33K
Maks. wyjście
4K
Uzyskaj dostęp do Gemma 3n E4b It przez nasze ujednolicone API — kompatybilne z OpenAI, bez zimnych startów, przejrzyste ceny.
Cennik na WaveSpeedAI: $0.06 za milion tokenów wejściowych i $0.12 za milion tokenów wyjściowych. Prompt caching i przetwarzanie wsadowe są rozliczane oddzielnie i obniżają efektywny koszt długich, powtarzalnych obciążeń.
Gemma 3n E4b It obsługuje do 33K tokenów kontekstu i do 4K tokenów wyjściowych na zapytanie.
Tak. WaveSpeedAI udostępnia Gemma 3n E4b It przez endpoint kompatybilny z OpenAI pod https://llm.wavespeed.ai/v1. Skieruj oficjalny OpenAI SDK na ten base URL ze swoim kluczem API WaveSpeedAI — bez innych zmian w kodzie.
Zaloguj się do WaveSpeedAI, utwórz klucz API w Access Keys, a następnie wyślij żądanie na https://llm.wavespeed.ai/v1/chat/completions z id modelu pokazanym powyżej. Nowe konta otrzymują darmowe kredyty na ocenę Gemma 3n E4b It.