Seedance 2.0 | Special Offer ✦ 10% OFF NOW
A
alpindale/goliath-120b

alpindale/goliath-120b

6,144 context · $3.75/M input tokens · $7.50/M output tokens

A large LLM created by combining two fine-tuned Llama 70B models into one 120B model. Combines Xwin and Euryale. Credits to - @chargoddard for developing the framework used to merge...

Tarification

Paiement à l'usage

Aucun coût initial, payez uniquement ce que vous utilisez

Entrée$3.75 / M Tokens
Sortie$7.50 / M Tokens

Utilisation de l'API

Utilisez les exemples de code suivants pour intégrer notre API :

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="alpindale/goliath-120b",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

Introduction au modèle

Alpindale goliath-120b

A large LLM created by combining two fine-tuned Llama 70B models into one 120B model

A large LLM created by combining two fine-tuned Llama 70B models into one 120B model. Combines Xwin and Euryale.

Credits to

#merge


Why It Looks Great

  • Large Language Model architecture for efficient processing
  • 6144 context window for long document handling
  • Competitive pricing at $4.1/$8.2 per million tokens

Key Features

  • Context Window: 6144 tokens
  • Max Output: 1024 tokens
  • Vision: Supported
  • Function Calling: Supported

Specifications

SpecificationValue
ProviderAlpindale
Model TypeLarge Language Model (LLM)
ArchitectureN/A
Context Window6144 tokens
Max Output1024 tokens
InputText
OutputText
VisionSupported
Function CallingSupported

Pricing

Token TypeCost per Million Tokens
Input$4.1
Output$8.2

How to Use

  1. Write your prompt — describe the task, provide context, and specify desired output format.
  2. Submit — the model processes your request and returns the response.

API Integration

Base URL: https://llm.wavespeed.ai/v1 API Endpoint: chat/completions Model ID: alpindale/goliath-120b


API Usage

Python SDK

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="alpindale/goliath-120b",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

cURL

curl https://llm.wavespeed.ai/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -d '{
    "model": "alpindale/goliath-120b",
    "messages": [{"role": "user", "content": "Hello!"}]
  }'

Notes

  • Model: alpindale/goliath-120b
  • Provider: Alpindale

Infos

Fournisseuralpindale
Typellm

Fonctionnalités prises en charge

Entrée
Texte
Sortie
Texte
Contexte6,144
Sortie max1,024
Vision-
Function Calling-

Guide d'accès API

Base URLhttps://llm.wavespeed.ai/v1
API Endpointchat/completions
ID du modèlealpindale/goliath-120b

Goliath 120b API

alpindale/goliath-120b

A large LLM created by combining two fine-tuned Llama 70B models into one 120B model. Combines Xwin and Euryale. Credits to - [@chargoddard](https://huggingface.co/chargoddard) for developing the framework used to merge...

Entrée

$3.75 /M

Sortie

$7.5 /M

Contexte

6K

Sortie max.

1K

Essayez Goliath 120b sur WaveSpeedAI

Accédez à Goliath 120b via notre API unifiée — compatible OpenAI, sans démarrages à froid, prix transparents.

Ouvrir le Playground

Questions fréquentes sur Goliath 120b

Combien coûte l'API Goliath 120b ?+

Tarification sur WaveSpeedAI : $3.75 par million de tokens d'entrée et $7.50 par million de tokens de sortie. Le prompt caching et le traitement par batch sont facturés séparément et réduisent le coût effectif sur les charges longues et répétitives.

Quelle est la fenêtre de contexte de Goliath 120b ?+

Goliath 120b prend en charge jusqu'à 6K tokens de contexte et jusqu'à 1K tokens de sortie par requête.

Goliath 120b est-il compatible avec OpenAI ?+

Oui. WaveSpeedAI expose Goliath 120b via un endpoint compatible OpenAI à https://llm.wavespeed.ai/v1. Pointez le SDK officiel d'OpenAI vers cette base URL avec votre clé API WaveSpeedAI — aucune autre modification de code requise.

Comment démarrer avec Goliath 120b ?+

Connectez-vous à WaveSpeedAI, créez une clé API dans Access Keys, puis envoyez une requête à https://llm.wavespeed.ai/v1/chat/completions avec l'id du modèle affiché ci-dessus. Les nouveaux comptes reçoivent des crédits gratuits pour évaluer Goliath 120b.

APIs LLM associées