Use any vision-language model from a curated catalogue, powered by OpenRouter, for flexible multimodal inference. Ready-to-use REST inference API, best performance, no coldstarts, affordable pricing.
llm
Entrée
En attente
Votre requête coûtera $0.05 par exécution.
Pour $1 vous pouvez exécuter ce modèle environ 20 fois.