GPT Image 2 Rate Limits im Jahr 2026: Was Entwickler wissen müssen
Erfahren Sie, wie die Rate Limits von GPT Image 2 im Jahr 2026 funktionieren und was sie für Durchsatz, Warteschlangendesign und die Planung von Produktionseinführungen bedeuten.
Hey, Leute. Hier ist Dora. Ein Freund in einem 3-köpfigen Produktteam hat Anfang Mai eine GPT Image 2-Funktion gestartet. Soft Launch, ~200 eingeladene Nutzer. Innerhalb von 90 Minuten war die Funktion kaputt – nicht weil das Modell versagt hatte, sondern weil sie auf Tier 2 waren und der Burst dieser Nutzer (im Schnitt 3–5 Bilder pro Person) am ersten Nachmittag die 20-IPM-Grenze erreichte.
Das ist das Tückische an GPT Image 2 Rate Limits: Sie fühlen sich nicht wie eine Einschränkung an, bis sie es sind. Tier-Zahlen in einer Docs-Tabelle wirken abstrakt. Sie werden konkret in dem Moment, in dem die Queue-Tiefe das überschreitet, was das Tier pro Minute abarbeiten kann. Dieser Artikel richtet sich an Teams, die GPT Image 2 in ein echtes Produkt integrieren – nicht an Leute, die einzelne Prompts benchmarken. OpenAI Image API Rate Limits verhalten sich in Lasttests anders als in der Entwicklung.
Hinweis: Ich schreibe über Agent- und Image-Infrastruktur für WaveSpeedAI. Die Frage der Modell-Evaluierung habe ich in einem früheren Beitrag behandelt – ob GPT Image 2 überhaupt in euren Workflow passt. Dieser Beitrag setzt voraus, dass ihr das entschieden habt und nun herausfindet, ob es den echten Traffic übersteht.
Wie GPT Image 2 Rate Limits 2026 aussehen
Laut OpenAIs Rate-Limits-Dokumentation und der GPT Image 2 Modellseite wird das Modell auf zwei Dimensionen gemessen: TPM (Tokens pro Minute, zählt Bild-Input/Output und Text-Tokens) und IPM (Bilder pro Minute, die härtere Grenze für die meisten Workflows).

Tier-basierte IPM- und TPM-Struktur
Dies sind die veröffentlichten GPT Image 2-Limits stand April 2026. Free Tier: nicht unterstützt.
| Tier | TPM | IPM | Ungefähre Qualifikationsausgaben |
|---|---|---|---|
| Tier 1 | 100.000 | 5 | 5 $ bezahlt |
| Tier 2 | 250.000 | 20 | 50 $ bezahlt + 7 Tage |
| Tier 3 | 800.000 | 50 | 100 $ bezahlt + 7 Tage |
| Tier 4 | 3.000.000 | 150 | 250 $ bezahlt + 14 Tage |
| Tier 5 | 8.000.000 | 250 | 1.000 $ bezahlt + 30 Tage |
Zwei Dinge sind zu beachten. Tiers gelten auf Organisationsebene, nicht pro Projekt oder API-Key – jedes Projekt teilt sich dasselbe GPT Image 2 IPM-Budget. OpenAI kann diese Zahlen ohne Vorwarnung ändern, daher ist die obige Tabelle eine Planungsgrundlage. Bitte vor architektonischen Entscheidungen das Limits-Dashboard eures Kontos prüfen.

Was diese Limits in der Praxis bedeuten
Eine 5-IPM-Tier-1-Grenze entspricht einem Bild alle 12 Sekunden, dauerhaft. Das reicht für die Solo-Entwicklung und kleine Prototypen. Es reicht nicht für eine öffentlich zugängliche Funktion mit moderater Gleichzeitigkeit. Eine 250-IPM-Tier-5-Grenze klingt hoch, bis man die Rechnung aufmacht: 250 Bilder/min × 60 min = 15.000 Bilder/Stunde. Wenn euer Launch-Tweet in der ersten Stunde 5.000 Anmeldungen bringt und jeder Nutzer ein Bild generiert, seid ihr bereits bei 33 % der Kapazität – bei perfekter Verteilung, die niemals eintritt.
Die gefährlichere Fehlerform ist bursty Traffic. OpenAIs Dokumentation weist darauf hin, dass Limits über Fenster kürzer als eine Minute durchgesetzt werden. 20 IPM bedeutet nicht, dass ihr 20 in der ersten Sekunde senden und 59 Sekunden ruhen könnt. Sendet 5 in 2 Sekunden, und ihr werdet gedrosselt, auch wenn euer Minutendurchschnitt weit unter der Grenze liegt.
Wie Rate Limits die Produktionsplanung beeinflussen
Die Modell-Evaluierung dauerte zwei Wochen. Die Infrastruktur, um es unter echtem Traffic am Laufen zu halten, dauert mindestens weitere zwei. Die meisten Teams unterschätzen das.
Queue-Design, Batching und Retry-Entscheidungen
Drei Schichten stapeln sich hier. Die meisten Teams bauen nur zwei.
Erstens: clientseitiges Rate-Limiting. Begrenzt gleichzeitig laufende Requests auf ~80 % des IPM eures Tiers, verteilt über die Minute. Bei Tier 3 (50 IPM) sind das ~40 gleichzeitige Bilder dauerhaft, dahinter eingereiht.
Zweitens: Retry mit exponentiellem Backoff. Das OpenAI Cookbook empfiehlt Jitter-Exponential-Backoff bei 429s. Standardmuster: 1 s, 2 s, 4 s, 8 s mit zufälligem Jitter warten, nach 6 Versuchen aufhören. Nicht verhandelbar. Tight-Loop-Retries bei 429 führen dazu, dass euer Konto markiert wird.

Drittens – der Teil, den Teams überspringen – ist Request-Shape-Kontrolle. Nicht jedes Bild benötigt quality: high. Nicht jeder Workflow braucht eine synchrone Antwort. OpenAIs Batch API hat einen separaten Quota-Pool und 50 % Preisrabatt bei 24-Stunden-SLA. Für nächtliche Thumbnail-Regenerierung ist Batch das richtige Werkzeug. Für nutzerseitige Einzelgenerierungen nicht. Die meisten Teams haben einen Mix und routen sie, als wären sie gleich. Der Unterschied zwischen „Rate Limits sind ein Problem” und „Rate Limits sind ein Hintergrundrauschen” liegt darin, ob ihr asynchrone Arbeit aus dem synchronen IPM-Pool herausgeroutet habt.
Teamerwartungen bezüglich Durchlaufzeit und Spitzen
Das ist der Teil, den niemand dokumentiert. Es ist das Gespräch mit Produkt und Ops, nicht mit dem Modell.
Bei Tier 2 (20 IPM) ist die p50-Latenz ungefähr modellgebunden – 8–25 Sekunden je nach Qualität und Reasoning-Modus. Aber p99 unter dauerhafter Last schließt Wartezeit in der Queue ein. Ein Nutzer, der den 21. Request in einer Minute einreicht, wartet 60 Sekunden, nicht 12. „Bild generiert in 15 Sekunden” gilt nur, wenn sonst niemand generiert.
Bei Marketingkampagnen und Launches ist die Planungsfrage nicht der durchschnittliche Durchsatz – es ist der Peak-Minuten-Durchsatz. Wenn ihr nach einer Kampagne für 4 Stunden das 3-fache des normalen Traffics erwartet, muss euer Tier dieses 3-fache absorbieren können, ohne zu brechen – oder ihr müsst vorab generieren oder einen Fallback haben. Wählt eine Option vor dem Launch. Während des Launches zu entscheiden geht nie gut.
Wenn Rate Limits zum Produktproblem werden
Es gibt eine Schwelle, ab der GPT Image 2-Durchsatz aufhört, eine Infrastrukturfrage zu sein, und zur Produktfrage wird. Das Signal ist konsistent: Wenn eure Retry-Queue tief genug ist, um für Nutzer sichtbar zu sein, habt ihr ein Produktproblem, kein Infrastrukturproblem.
Zeichen, dass ihr diese Schwelle überschritten habt:
- Nutzerseitige Latenzstreuung überschreitet eure Toleranzgrenze (z. B. 80 % der Requests fertig in 20 s, 5 % dauern 90 s+, weil sie hinter einem Burst eingereiht waren)
- Ihr schränkt Feature-Scope ein, um unter dem Tier zu bleiben – „keine Batch-Generierung in der UI” ist ein Warnsignal
- Ein einzelner Bad Actor oder ein beliebter Share-Link kann eure Minute saturieren und alle anderen beeinträchtigen
- Eure Tier-5-Bewerbung dauert länger als 30 Tage und euer Launch ist in 14
Die ehrliche Antwort, wenn ihr das erreicht: Ein einzelner Anbieter hat eine operative Obergrenze. Selbst Tier 5 ist eine Obergrenze. Teams mit ernstem Volumen fangen an, Vor-Generierung und Caching zu erwägen, Model-Routing zu alternativen Optionen mit geringerem Tier-Druck für unkritische Pfade, oder Aggregation/Fallback über eine Schicht, die Kapazität über mehrere Anbieter bündelt. Jedes erhöht den Engineering-Aufwand. Jedes ist günstiger als ein öffentlicher Latenz-Vorfall.
Ich habe bei diesem Abschnitt eine Weile innegehalten, weil das WaveSpeed-Framing hier leicht zu greifbar ist. Ehrliche Einschätzung: Aggregation ist eine Option unter mehreren. Vor-Generierung und Caching lösen oft mehr, als die Leute ihnen zutrauen, und kosten weniger. Ob ihr eine Multi-Provider-Schicht braucht, hängt davon ab, ob euer Workload Tier 5 wirklich übersteigt oder ob ihr noch nicht optimiert habt. Diagnostiziert, bevor ihr Architektur aufbaut.
Was Builder vor dem Skalieren überwachen sollten
Drei Dinge, in dieser Reihenfolge.
Echte IPM bei Peak, nicht Durchschnitt. Loggt x-ratelimit-remaining-images- und x-ratelimit-remaining-tokens-Header bei jeder Response. Beobachtet das Minimum, nicht den Durchschnitt. Wenn der verbleibende Peak-Minuten-Wert unter 20 % des Tiers fällt, seid ihr einen Traffic-Spike von 429s entfernt.
Fehlermodusverteilung. Trackt 429s als Prozentsatz der Gesamtrequests, aufgeschlüsselt nach Tageszeit. Eine 0,5 %-429-Rate klingt harmlos, bis ihr entdeckt, dass sie im Marketingmail-Fenster 8 % beträgt. Zeitlich aufgeschlüsselte Metriken erkennen das; aggregierte nicht.
Zeit bis zum Tier-Upgrade. Tier 5 erfordert 1.000 $ Ausgaben plus 30 Tage Kontolaufzeit. Wenn eure Prognose Tier-5-Bedarf innerhalb von 2 Monaten erreicht, fangt jetzt mit den Ausgaben an, oder akzeptiert, dass eure ersten 30 Tage im Scale-Betrieb kapazitätsbeschränkt sein werden.
Hier enden meine Daten – ich habe GPT Image 2 bei Tier 2 und Tier 3 betrieben, nicht bei Tier 5. Tier-5-Teams berichten, dass sich die Dynamik erneut verändert, wo die Grenze aufhört, IPM zu sein, und zur Request-Shape-Effizienz wird.

FAQ
Was sind die GPT Image 2 Rate Limits nach Tier?
Laut OpenAIs Dokumentation stand April 2026: Tier 1 ist 100.000 TPM / 5 IPM, Tier 2 ist 250.000 / 20, Tier 3 ist 800.000 / 50, Tier 4 ist 3.000.000 / 150, Tier 5 ist 8.000.000 / 250. Free Tier wird nicht unterstützt. Limits gelten auf Organisationsebene, geteilt über alle Projekte. OpenAI kann diese überarbeiten, also im Account-Dashboard prüfen.
Wie beeinflussen Rate Limits Image-Workflows im großen Maßstab?
Drei Dinge: Queue-Design (ihr braucht clientseitiges Limiting vor dem von OpenAI), Latenzverteilung (p99 schließt Queue-Wartezeit ein, nicht nur Modellzeit) und Roadmap (ihr könntet Features verschieben, die Spitzen erzeugen, die ihr nicht absorbieren könnt). Das übliche Muster: Teams bauen für durchschnittliche Last und entdecken dann, dass Peak-Last die Nutzererfahrung bestimmt.
Was sollten Teams vor dem Launch einer hochvolumigen Funktion tun?
Vier Schritte. Schätzt das Peak-Minuten-Generierungsvolumen, nicht den Tagesdurchschnitt. Stellt sicher, dass euer Tier es mit ~30 % Puffer abdeckt. Implementiert exponentiellen Backoff mit Jitter und einem Circuit Breaker. Entscheidet euch für einen Fallback für den Fall, dass ihr die Kapazität erschöpft – Vor-Generierung, alternatives Modell oder graceful Degradation. Das Launch-Fehlerszenario, das ihr nicht beheben könnt, ist das, für das ihr nicht geplant habt.
Wann reicht ein Anbieter operativ nicht mehr aus?
Wenn der Peak-Minuten-Bedarf dauerhaft die Single-Provider-Tier-5-Kapazität übersteigt, wenn euer SLA eine Ausfallzeit eines einzelnen Anbieters nicht tolerieren kann, oder wenn die Latenzstreuung durch Queue-Wartezeit trotz Optimierung für Nutzer sichtbar bleibt. Die meisten Teams kommen nicht so weit. Teams, die es tun – meist Consumer-Produkte mit viralen Mustern oder Enterprise-Pipelines mit strikten SLAs – ergänzen Vor-Generierung, Multi-Provider-Routing oder beides. Die Entscheidung sollte aus euren Peak-Load-Logs kommen, nicht aus dem Marketingmaterial eines Anbieters.
Fazit
Die Kurzfassung der GPT Image 2 Rate Limits: Tier 1 beginnt bei 5 IPM, Tier 5 endet bei 250 IPM, und bursty Traffic erreicht diese Grenzen weit schneller, als die Steady-State-Rechnung vermuten lässt. Die längere Fassung: Rate Limits sind ein operatives Design-Constraint, kein Dokumentations-Fußnotenthema. Sie formen eure Queue, euren SLA, euren Feature-Scope und euren Launchplan.
Die richtige Frage für Builder ist nicht „auf welchem Tier bin ich” – sondern „wie sieht meine Peak-Minute aus, und absorbiert mein Tier sie mit Puffer?” Die meisten Teams entdecken die Antwort auf die falsche Art, nachdem der Launch live gegangen ist.
Mehr folgt, sobald ich GPT Image 2 auf Tier 5 betrieben habe. Die obigen Zahlen stammen von OpenAI, das Framing ist meins, Kapazitätsrichtlinien aktualisieren sich schneller als Blog-Posts.
Vorherige Beiträge:




