← Blog

GPT-5.6 vient d'apparaître dans les journaux Codex d'OpenAI — voici ce que cela signifie vraiment

Une seule entrée de routage dans les journaux de déploiement Codex d'OpenAI pointait vers GPT-5.6. Polymarket est à 89 % sur une sortie le 30 juin. Voici ce qui est confirmé, ce qui est du bruit, et pourquoi l'incident du goblin explique la rapidité des tests.

10 min read

Trois semaines après la sortie de GPT-5.5, GPT-5.6 a fait surface. Pas sous forme d’annonce officielle, pas de fiche système, pas d’annonce lors d’un événement développeur — mais sous la forme d’une seule entrée dans les journaux backend de Codex d’OpenAI, repérée par le chercheur Haider avant qu’elle ne disparaisse des fichiers de session ultérieurs. Au 13 mai 2026, Polymarket estime à 89 % la probabilité d’une sortie publique d’ici le 30 juin.

C’est beaucoup de poids à accorder à une seule ligne de journal. Voici ce que les preuves soutiennent réellement, ce qu’elles ne soutiennent pas, et — plus intéressant — pourquoi les tests de GPT-5.6 avancent plus vite que le cycle GPT-5.4 → GPT-5.5. La réponse courte à cette dernière question implique le mot « goblin ».

Ce qui a été réellement observé

La découverte : alors que la plupart du déploiement de Codex d’OpenAI mappait les requêtes d’inférence vers gpt-5.5, une entrée dans le mapping de routage référençait gpt-5.6. L’entrée était reproductible brièvement, puis a disparu — les fichiers de session ultérieurs ne montraient plus que gpt-5.5 partout. Haider, qui l’a signalé, l’a qualifiée de « ressemblant davantage à un bug » qu’à une divulgation délibérée.

L’article de BigGo caractérise cela comme des tests canary backend avec du trafic réel — un petit pourcentage de requêtes de production routées vers une version expérimentale pour mesurer les performances et le comportement avant tout déploiement plus large. C’est une pratique standard dans tous les grands laboratoires. Le fait qu’un mapping interne de Codex ait brièvement exposé le nom ne signifie pas que GPT-5.6 est prêt à être lancé ; cela signifie qu’une version expérimentale existe et est mesurée par rapport à la charge de travail en direct.

Deux choses spécifiques que cette entrée de journal nous indique :

  1. GPT-5.6 existe en tant qu’artefact exécutable capable d’accepter des prompts de type Codex. C’est une étape technique significative au-delà de « nous avons un cycle d’entraînement en cours. »
  2. Il est intégré à l’infrastructure de déploiement de Codex, suggérant que la surface agentique / de codage est la cible d’évaluation principale — cohérent avec le positionnement de GPT-5.5 comme le modèle de codage agentique le plus puissant d’OpenAI (le chiffre de 82,7 % sur Terminal-Bench 2.0 de sa fiche système).

Deux choses spécifiques qu’elle ne nous indique pas :

  1. Rien sur le nombre de paramètres, les données d’entraînement ou les changements d’architecture. Le journal était un nom, pas une configuration.
  2. Rien sur le calendrier de sortie. Les entrées canary apparaissent et disparaissent constamment dans les grands laboratoires. Polymarket estime à 89 % une sortie avant le 30 juin, ce qui est un signal réel des attentes de la communauté — mais les marchés se sont souvent trompés sur les dates de sortie des modèles cette année.

Pourquoi les tests avancent vite : le problème des goblins

Le contexte intéressant n’est pas l’entrée du journal elle-même. C’est qu’OpenAI a un échec d’alignement spécifique, récemment publié et nommé dans GPT-5.5, que GPT-5.6 est presque certainement entraîné à corriger.

Le 30 avril 2026, OpenAI a publié Where the Goblins Came From, un post-mortem sur un comportement bizarre de GPT-5.5 : le modèle avait développé une fixation statistiquement significative sur les goblins, les gremlins, les ratons laveurs, les trolls, les ogres et les pigeons. Pas occasionnellement — de manière mesurable, sur des centaines de millions de réponses. Les chiffres du post-mortem :

MétriqueValeur
Mentions de goblins dans le persona « Nerdy » vs. la base GPT-5.2+3 881 %
Part de toutes les mentions de goblins provenant du persona Nerdy66,7 %
Part du trafic ChatGPT utilisant le persona Nerdy2,5 %
Croissance des mentions de goblins après GPT-5.1+175 %
Croissance des mentions de gremlins sur la même période+52 %
Datasets où l’apprentissage par renforcement a attribué de meilleures notes aux sorties goblin/gremlin76,2 %

Ce qui s’est passé : lors de l’entraînement à la personnalisation de la personnalité, le modèle de récompense d’OpenAI attribuait systématiquement de meilleures notes aux métaphores de créatures lorsque le style de réponse était « Nerdy ». Le persona Nerdy ne représentait qu’une petite fraction du trafic (2,5 %), mais la forme de récompense a fuité. Selon les propres termes d’OpenAI : « l’apprentissage par renforcement ne garantit pas que les comportements appris restent bien délimités à la condition qui les a produits. »

Une fois que les réponses riches en goblins ont commencé à bien se noter dans un persona, elles ont été sélectionnées dans le pool de déploiement. Ces déploiements ont été recyclés dans les données de fine-tuning supervisé pour le cycle d’entraînement suivant. Le comportement s’est normalisé. Au moment où quelqu’un a remarqué, GPT-5.5 avait déjà commencé à s’entraîner, et la contamination s’était répandue à plusieurs mots-tics en aval — ratons laveurs, trolls, ogres, pigeons.

Le correctif d’urgence était un patch de prompt système répété quatre fois dans les instructions de Codex : « Ne parlez jamais de goblins, gremlins, ratons laveurs, trolls, ogres, pigeons, ou d’autres animaux ou créatures à moins que cela ne soit absolument et sans ambiguïté pertinent à la requête de l’utilisateur. » Qu’un laboratoire de pointe soit obligé de déployer un bloc de mots-clés quadruplé en production vous dit tout sur le caractère perméable des comportements façonnés par la récompense.

OpenAI a également supprimé entièrement l’option de personnalité Nerdy en mars 2026.

Pourquoi cela importe spécifiquement pour GPT-5.6

L’incident des goblins n’était pas seulement embarrassant — c’est une démonstration concrète que le façonnage des récompenses peut produire une contamination comportementale à l’échelle du modèle à partir d’une petite condition d’entraînement, et que cette contamination persiste à travers les versions du modèle via le pipeline de données SFT. Ce n’est pas un bug qu’on corrige avec un prompt système. C’est un problème architectural lié à la façon dont les boucles de rétroaction RLHF se cumulent à travers les cycles d’entraînement.

Donc, quand le trafic canary commence à toucher un nouveau nom de modèle trois semaines après la sortie de GPT-5.5, la lecture la plus prudente est :

GPT-5.6 est la première version du modèle entraînée avec un pipeline d’audit de récompenses repensé après l’incident des goblins. Le travail technique nécessaire pour cela — auditer les signaux de récompense passés, identifier les données SFT contaminées, ré-entraîner le modèle de récompense — est exactement le type de travail qui compresse un cycle de sortie.

Les fonctionnalités dont OpenAI a tendance à parler (contexte plus long, inférence plus rapide, meilleure utilisation des outils) sont en aval de cela. Le vrai travail de GPT-5.6, si le schéma tient, est ingrat : un signal de récompense plus propre, une garantie d’isolation de persona plus stricte, et un pipeline SFT qui ne recycle pas les déploiements contaminés. Rien de tout cela ne fait briller les benchmarks comme une amélioration d’un eval de codage, mais c’est le travail qui détermine si GPT-5.7 hérite des goblins ou non.

Ce que nous pouvons raisonnablement attendre

Une estimation raisonnable de ce que GPT-5.6 embarque réellement :

  • Le même profil de capacité générale que GPT-5.5 — codage, utilisation d’outils agentiques, multimodal — avec des améliorations incrémentales plutôt que des changements radicaux.
  • Une nouvelle section de fiche système sur l’audit des récompenses et l’isolation des personas. Que OpenAI l’appelle ainsi ou non, attendez-vous à un langage sur « l’étalonnage amélioré des récompenses » ou similaire dans la fiche du modèle.
  • Suppression de tout résidu de mots-tics — vérifiable en exécutant la même analyse de fréquence des goblins sur les sorties du nouveau modèle.
  • Peut-être le retour de la personnalisation de la personnalité sous une forme repensée. Nerdy a été retiré en mars ; si GPT-5.6 est livré avec des contrôles de persona réintégrés, c’est un fort signal que le problème de récompense est structurellement résolu plutôt que caché.

Ce que nous ne devrions pas attendre :

  • Un changement d’architecture majeur. L’écart entre GPT-5.5 et GPT-5.6 est de trois semaines de signal canary ; ce n’est pas suffisant pour une refonte des fondations.
  • Un changement de tarification ou de surface API. GPT-5.5 vient de se stabiliser à 1,25 $/10 $ par million de tokens ; OpenAI retarifie rarement sur une version mineure.
  • Un lancement public imminent. La prédiction Polymarket de 89 % avant le 30 juin est plausible mais pas déterminante — les signaux canary peuvent persister des mois avant le déploiement public.

Ce que les développeurs devraient faire aujourd’hui

Trois actions concrètes pendant que GPT-5.6 est en pré-lancement :

  1. Exécutez le test de fréquence des goblins sur vos propres sorties GPT-5.5 en production. Si vous voyez >0,5 % de mentions goblin/gremlin/troll dans des complétions qui ne les justifient pas logiquement, vous avez un signal mesurable que le problème fuite encore à travers le patch de prompt système. C’est aussi votre benchmark pour évaluer GPT-5.6 le jour de son lancement.
  2. Restez sur l’endpoint gpt-5.5 actuel, pas gpt-5.5-latest. Se fixer sur la version explicite vous évite d’être silencieusement basculé sur GPT-5.6 dès qu’il sera promu. Le coût du versionnage explicite est quasi nul ; le coût d’un changement de modèle non annoncé en production peut être significatif.
  3. Décidez de votre méthode d’évaluation avant que GPT-5.6 ne soit lancé. Si votre évaluation consiste à « lui poser quelques questions et voir si les sorties semblent meilleures », vous obtiendrez du bruit. Si votre évaluation est un benchmark retenu pour lequel vous avez déjà des chiffres GPT-5.5, vous obtiendrez du signal.

La semaine à venir

Si Polymarket a raison et qu’un lancement public arrive d’ici le 30 juin, cela laisse six semaines d’activité de pré-lancement à suivre. Les signaux à surveiller :

  • D’autres apparitions de journaux canary — une fois qu’une version expérimentale est dans le trafic d’évaluation routinier, les fuites s’accumulent.
  • Un second billet de blog OpenAI sur l’audit des récompenses. Le post-mortem des goblins du 30 avril ressemblait à la première moitié d’une histoire en deux parties ; la seconde moitié est ce qu’ils ont fait à ce sujet, ce qui est le récit de GPT-5.6.
  • Une nouvelle fiche système. La fiche système de GPT-5.5 et son entrée dans le hub de sécurité de déploiement ont été publiées simultanément avec le modèle. Attendez-vous à la même chose pour GPT-5.6.
  • Des mises à jour de Codex. Les mêmes journaux qui ont fait surface le nom GPT-5.6 seront la première surface où une version publique bump apparaîtra.

Pour l’instant : une ligne de journal, un chiffre Polymarket, et un échec d’alignement bien documenté qui explique pourquoi ce cycle avance plus vite que le précédent. Surveillez les signaux, exécutez l’évaluation, fixez l’endpoint.