perplexity/sonar-deep-research
128,000 context · $2.00/M input tokens · $8.00/M output tokens
Sonar Deep Research is a research-focused model designed for multi-step retrieval, synthesis, and reasoning across complex topics. It autonomously searches, reads, and evaluates sources, refining its approach as it gathers...
Płać za użycie
Bez kosztów początkowych, płacisz tylko za to, czego używasz
Użyj poniższych przykładów kodu, aby zintegrować się z naszym API:
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://llm.wavespeed.ai/v1"
)
response = client.chat.completions.create(
model="perplexity/sonar-deep-research",
messages=[
{"role": "user", "content": "Hello!"}
]
)
print(response.choices[0].message.content)perplexity sonar-deep-research
| Specification | Value |
|---|---|
| Provider | Perplexity |
| Model Type | Large Language Model (LLM) |
| Architecture | N/A |
| Context Window | 128000 tokens |
| Max Output | 4096 tokens |
| Input | Text |
| Output | Text |
| Vision | Supported |
| Function Calling | Supported |
| Token Type | Cost per Million Tokens |
|---|---|
| Input | $2.2 |
| Output | $8.8 |
Base URL: https://llm.wavespeed.ai/v1 API Endpoint: chat/completions Model ID: perplexity/sonar-deep-research
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://llm.wavespeed.ai/v1"
)
response = client.chat.completions.create(
model="perplexity/sonar-deep-research",
messages=[
{"role": "user", "content": "Hello!"}
]
)
print(response.choices[0].message.content)
curl https://llm.wavespeed.ai/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer YOUR_API_KEY" \
-d '{
"model": "perplexity/sonar-deep-research",
"messages": [{"role": "user", "content": "Hello!"}]
}'
perplexity/sonar-deep-research
Sonar Deep Research is a research-focused model designed for multi-step retrieval, synthesis, and reasoning across complex topics. It autonomously searches, reads, and evaluates sources, refining its approach as it gathers...
Wejście
$2 /M
Wyjście
$8 /M
Kontekst
128K
Maks. wyjście
4K
Uzyskaj dostęp do Sonar Deep Research przez nasze ujednolicone API — kompatybilne z OpenAI, bez zimnych startów, przejrzyste ceny.
Cennik na WaveSpeedAI: $2.00 za milion tokenów wejściowych i $8.00 za milion tokenów wyjściowych. Prompt caching i przetwarzanie wsadowe są rozliczane oddzielnie i obniżają efektywny koszt długich, powtarzalnych obciążeń.
Sonar Deep Research obsługuje do 128K tokenów kontekstu i do 4K tokenów wyjściowych na zapytanie.
Tak. WaveSpeedAI udostępnia Sonar Deep Research przez endpoint kompatybilny z OpenAI pod https://llm.wavespeed.ai/v1. Skieruj oficjalny OpenAI SDK na ten base URL ze swoim kluczem API WaveSpeedAI — bez innych zmian w kodzie.
Zaloguj się do WaveSpeedAI, utwórz klucz API w Access Keys, a następnie wyślij żądanie na https://llm.wavespeed.ai/v1/chat/completions z id modelu pokazanym powyżej. Nowe konta otrzymują darmowe kredyty na ocenę Sonar Deep Research.