x-ai/grok-3-beta
131,072 context · $3.00/M input tokens · $15.00/M output tokens
Grok 3 is the latest model from xAI. It's their flagship model that excels at enterprise use cases like data extraction, coding, and text summarization. Possesses deep domain knowledge in...
จ่ายตามการใช้งาน
ไม่มีค่าใช้จ่ายล่วงหน้า จ่ายเฉพาะสิ่งที่คุณใช้
ใช้ตัวอย่างโค้ดต่อไปนี้เพื่อผสานรวมกับ API ของเรา:
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://llm.wavespeed.ai/v1"
)
response = client.chat.completions.create(
model="x-ai/grok-3-beta",
messages=[
{"role": "user", "content": "Hello!"}
]
)
print(response.choices[0].message.content)x-ai grok-3-beta
| Specification | Value |
|---|---|
| Provider | X-Ai |
| Model Type | Large Language Model (LLM) |
| Architecture | N/A |
| Context Window | 131072 tokens |
| Max Output | 4096 tokens |
| Input | Text |
| Output | Text |
| Vision | Supported |
| Function Calling | Supported |
| Token Type | Cost per Million Tokens |
|---|---|
| Input | $3.3 |
| Output | $16.5 |
Base URL: https://llm.wavespeed.ai/v1 API Endpoint: chat/completions Model ID: x-ai/grok-3-beta
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://llm.wavespeed.ai/v1"
)
response = client.chat.completions.create(
model="x-ai/grok-3-beta",
messages=[
{"role": "user", "content": "Hello!"}
]
)
print(response.choices[0].message.content)
curl https://llm.wavespeed.ai/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer YOUR_API_KEY" \
-d '{
"model": "x-ai/grok-3-beta",
"messages": [{"role": "user", "content": "Hello!"}]
}'
x-ai/grok-3-beta
Grok 3 is the latest model from xAI. It's their flagship model that excels at enterprise use cases like data extraction, coding, and text summarization. Possesses deep domain knowledge in...
อินพุต
$3 /M
เอาต์พุต
$15 /M
คอนเท็กซ์
131K
เอาต์พุตสูงสุด
4K
การใช้เครื่องมือ
รองรับ
เข้าถึง Grok 3 Beta ผ่าน API แบบรวมของเรา — เข้ากันได้กับ OpenAI ไม่มี cold start ราคาโปร่งใส
ราคาบน WaveSpeedAI: $3.00 ต่อล้านโทเคนอินพุต และ $15.00 ต่อล้านโทเคนเอาต์พุต Prompt caching และ batch processing คิดค่าบริการแยกและช่วยลดต้นทุนที่แท้จริงสำหรับภาระงานที่ยาวและทำซ้ำ
Grok 3 Beta รองรับสูงสุด 131K โทเคนคอนเท็กซ์ และสูงสุด 4K โทเคนเอาต์พุตต่อคำขอ
ใช่ WaveSpeedAI ให้บริการ Grok 3 Beta ผ่าน endpoint ที่เข้ากันได้กับ OpenAI ที่ https://llm.wavespeed.ai/v1 ชี้ OpenAI SDK ทางการมาที่ base URL นี้ด้วย API key ของ WaveSpeedAI — ไม่ต้องแก้ไขโค้ดอื่น
ลงชื่อเข้าใช้ WaveSpeedAI สร้าง API key ใน Access Keys จากนั้นส่งคำขอไปยัง https://llm.wavespeed.ai/v1/chat/completions พร้อม model id ที่แสดงด้านบน บัญชีใหม่จะได้รับเครดิตฟรีสำหรับทดลองใช้ Grok 3 Beta