Seedance 2.0 | Special Offer ✦ 10% OFF NOW | Ends May 13 (UTC+0)
xai
x-ai/grok-3-beta

x-ai/grok-3-beta

131,072 context · $3.00/M input tokens · $15.00/M output tokens

Grok 3 is the latest model from xAI. It's their flagship model that excels at enterprise use cases like data extraction, coding, and text summarization. Possesses deep domain knowledge in...

定價

按用量付費

無需預付費用,僅按實際使用量付費

輸入$3.00 / M Tokens
輸出$15.00 / M Tokens

試用模型

x-ai/grok-3-beta
線上
xai
嗨!我是樂於助人的 AI 助理。有什麼可以幫你的嗎?

API 使用

使用以下程式碼範例整合我們的 API:

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="x-ai/grok-3-beta",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

模型介紹

X-Ai grok-3-beta

x-ai grok-3-beta


Why It Looks Great

  • Large Language Model architecture for efficient processing
  • 131072 context window for long document handling
  • Competitive pricing at $3.3/$16.5 per million tokens

Key Features

  • Context Window: 131072 tokens
  • Max Output: 4096 tokens
  • Vision: Supported
  • Function Calling: Supported

Specifications

SpecificationValue
ProviderX-Ai
Model TypeLarge Language Model (LLM)
ArchitectureN/A
Context Window131072 tokens
Max Output4096 tokens
InputText
OutputText
VisionSupported
Function CallingSupported

Pricing

Token TypeCost per Million Tokens
Input$3.3
Output$16.5

How to Use

  1. Write your prompt — describe the task, provide context, and specify desired output format.
  2. Submit — the model processes your request and returns the response.

API Integration

Base URL: https://llm.wavespeed.ai/v1 API Endpoint: chat/completions Model ID: x-ai/grok-3-beta


API Usage

Python SDK

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="x-ai/grok-3-beta",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

cURL

curl https://llm.wavespeed.ai/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -d '{
    "model": "x-ai/grok-3-beta",
    "messages": [{"role": "user", "content": "Hello!"}]
  }'

Notes

  • Model: x-ai/grok-3-beta
  • Provider: X-Ai

資訊

提供商xai
類型llm

支援功能

輸入
文字
輸出
文字
上下文131,072
最大輸出4,096
視覺-
函式呼叫✓ 支援

API 存取指南

Base URLhttps://llm.wavespeed.ai/v1
API 端點chat/completions
Model IDx-ai/grok-3-beta

Grok 3 Beta API

x-ai/grok-3-beta

Grok 3 is the latest model from xAI. It's their flagship model that excels at enterprise use cases like data extraction, coding, and text summarization. Possesses deep domain knowledge in...

輸入

$3 /M

輸出

$15 /M

上下文

131K

最大輸出

4K

工具調用

支援

在 WaveSpeedAI 試用 Grok 3 Beta

透過我們的統一 API 接入 Grok 3 Beta — 相容 OpenAI、無冷啟動、透明計費。

關於 Grok 3 Beta 的常見問題

Grok 3 Beta API 多少錢?+

WaveSpeedAI 定價:輸入每百萬 token $3.00,輸出每百萬 token $15.00。Prompt 快取與批次處理分別計費,可顯著降低長上下文、高重複任務的實際成本。

Grok 3 Beta 的上下文視窗有多大?+

Grok 3 Beta 每次請求最多支援 131K 上下文 token,輸出最多 4K token。

Grok 3 Beta 是否相容 OpenAI?+

是的。WaveSpeedAI 透過 https://llm.wavespeed.ai/v1 的 OpenAI 相容端點提供 Grok 3 Beta。將官方 OpenAI SDK 的 base URL 指向該位址,使用 WaveSpeedAI 的 API Key 即可,無需其他程式碼變更。

如何開始使用 Grok 3 Beta?+

登入 WaveSpeedAI,在 Access Keys 建立 API Key,使用上方顯示的 model id 向 https://llm.wavespeed.ai/v1/chat/completions 發送請求。新帳號將獲得免費額度,用於試用 Grok 3 Beta。

相關 LLM API