← Блог

MiniMax M2.7: Самообучающаяся ИИ-модель, которая конкурирует с Claude и GPT за долю цены

MiniMax M2.7 — флагманская текстовая модель нового поколения с возможностями самосовершенствования, 56,22% на SWE-Pro, скоростью 100 TPS и стоимостью $0,30/млн входных токенов. Сравните M2.7 с Claude Opus 4.6, GPT-5 и Gemini 3.1 по бенчмаркам, ценам и возможностям агентов.

7 min read

MiniMax M2.7: Самообучающаяся модель, переписывающая правила ИИ-агентов

Что происходит, когда ИИ-модель участвует в собственной эволюции? MiniMax только что ответила на этот вопрос с помощью M2.7 — флагманской текстовой модели нового поколения, которая не просто выполняет задачи, но и активно совершенствует себя через взаимодействие с реальным миром. Построенная на базе фреймворка OpenClaw (Agent Harness), M2.7 автономно провела более 100 раундов оптимизации scaffold в ходе обучения, достигнув 30%-ного улучшения производительности на внутренних оценках — без участия человека.

В результате получилась модель, которая соответствует или приближается к Claude Opus 4.6 и GPT-5 на самых сложных бенчмарках по программированию и работе агентов, работает в 3 раза быстрее и стоит значительно дешевле. Вот всё, что вам нужно знать.

Чем отличается M2.7: самосовершенствование

Большинство ИИ-моделей проходят обучение, оценку и развёртывание как статичные артефакты. M2.7 нарушает эту закономерность. Это первая модель MiniMax, которая глубоко участвует в собственной эволюции — задействована в обновлении собственной памяти, формировании навыков обучения и улучшении собственного процесса обучения.

В ходе разработки M2.7 автономно:

  • Выполнила 100+ итерационных циклов по оптимизации производительности собственного scaffold
  • Самостоятельно управляла 30–50% рабочих процессов исследований в области обучения с подкреплением
  • Участвовала в 22 соревнованиях по машинному обучению, завоевав 9 золотых медалей в лучших попытках
  • Достигла доли медалей 66,6% на MLE-Bench Lite, сравнявшись с Google Gemini 3.1

Это не просто техника обучения — это сигнал о том, куда движется разработка ИИ. Модели, способные оценивать и улучшать собственную производительность, представляют принципиально иную парадигму по сравнению со статичными циклами обучения и развёртывания.

Производительность на бенчмарках: результаты выше ожиданий

M2.7 активирует всего 10 миллиардов параметров — что делает её наименьшей моделью в классе производительности Tier-1. Несмотря на эту эффективность, она конкурирует лицом к лицу с моделями на порядки большего размера.

Разработка программного обеспечения

БенчмаркM2.7Claude Opus 4.6GPT-5.3 Codex
SWE-Pro56,22%~57%56,2%
SWE-bench Verified78%55%
VIBE-Pro (сквозная разработка)55,6%
Terminal Bench 257,0%

M2.7 практически соответствует Opus на SWE-Pro и значительно превосходит его на SWE-bench Verified (78% против 55%). На VIBE-Pro — который измеряет сквозную реализацию проекта, а не изолированные патчи — M2.7 набирает 55,6%, демонстрируя реальные инженерные возможности, выходящие за рамки оптимизации под конкретные бенчмарки.

Профессиональная продуктивность

БенчмаркM2.7Лучший конкурент
GDPval-AA (офисные задачи)ELO 1495Наивысший среди моделей с открытым исходным кодом
Skill Adherence (40 сложных задач)97%
MM Claw (оценка агентов)62,7%Приближается к Sonnet 4.6

Оценка M2.7 ELO 1495 на GDPval-AA — который оценивает реальные задачи офисной продуктивности в Excel, PowerPoint, Word и при сложном редактировании документов — является наивысшей среди всех моделей с открытым исходным кодом. Уровень соответствия навыкам 97% для 40+ сложных задач (каждая из которых превышает 2000 токенов) демонстрирует надёжное выполнение сложных многоэтапных рабочих процессов, на которых спотыкается большинство моделей.

Исследования в области машинного обучения

БенчмаркM2.7Gemini 3.1GPT-5.4
MLE-Bench Lite (доля медалей)66,6%66,6%71,2%

M2.7 сравнивается с Google Gemini 3.1 и приближается к передовому уровню GPT-5.4 на бенчмарках соревнований по машинному обучению — замечательный результат для модели всего с 10 млрд активированных параметров.

Скорость и цена: настоящий переворот

Чистые показатели бенчмарков рассказывают одну историю. Производительность с учётом стоимости — совершенно другую.

ПоказательM2.7Claude Opus 4.6GPT-5
Скорость100 TPS~33 TPS~40 TPS
Стоимость входа$0,30/M токенов$15/M токенов$10/M токенов
Стоимость выхода$1,20/M токенов$75/M токенов$30/M токенов
Смешанная стоимость (с кэшем)$0,06/M токенов
Активированные параметры10B

M2.7 в 50 раз дешевле Opus на входе и в 60 раз дешевле на выходе — при этом соответствуя ему на SWE-Pro. При 100 токенах в секунду она также в 3 раза быстрее. При автоматической оптимизации кэша эффективная смешанная стоимость снижается до $0,06 за миллион токенов.

Для команд, выполняющих высококонкурентные агентные рабочие нагрузки, ассистентов по программированию или конвейеры обработки документов, такая структура затрат меняет экономику того, что возможно.

Ключевые возможности

Агентно-ориентированные рабочие процессы

M2.7 создана с нуля для агентных сценариев использования. Фреймворк OpenClaw обеспечивает:

  • Непрерывное самосовершенствование в реальных средах
  • Мультиагентное взаимодействие с нативными возможностями в области границ ролей, состязательного рассуждения и соблюдения протоколов
  • Активное участие в выполнении задач и принятии решений вместо пассивной генерации ответов
  • Взаимодействие со сложными средами с 97%-ным соответствием навыкам на сложных многоэтапных задачах

Разработка программного обеспечения

Помимо бенчмарков, M2.7 справляется с реальными инженерными рабочими процессами:

  • Сквозная реализация проектов (не только изолированные патчи кода)
  • Анализ логов и отладка
  • Проверка безопасности кода
  • Разработка конвейеров машинного обучения

Превосходство в офисном пакете

Расширенные возможности для профессиональной продуктивности:

  • Сложные операции с Excel и генерация формул
  • Создание и редактирование PowerPoint
  • Работа с документами Word
  • Поддержка многоходовых изменений — итеративная работа с документами через диалог

Персонаж и эмоциональный интеллект

M2.7 включает расширенные возможности сохранения идентичности и эмоционального интеллекта, обеспечивая основу для интерактивных развлечений, ролевых игр и приложений с персонажами.

Два варианта API

ВариантСкоростьКачествоСценарий использования
M2.7СтандартнаяПолное качествоПроизводство, сложные задачи
M2.7-highspeedБыстрееИдентичные результатыВысокая пропускная способность, чувствительность к задержкам

Оба варианта дают одинаковые результаты — вариант highspeed просто обрабатывает быстрее для приложений, чувствительных к задержкам.

Совместимость с инструментами разработчика

M2.7 интегрируется с инструментами, которые разработчики уже используют:

  • ИИ-программирование: Claude Code, Cursor, Cline, Codex CLI, Roo Code, Kilo Code
  • Агенты: OpenCode, Droid, TRAE, Grok CLI
  • Платформы: MiniMax Agent, MiniMax API Platform

OpenRoom: интерактивная демонстрация агента

MiniMax также выложила в открытый доступ OpenRoom — интерактивную демонстрацию агента, которая переводит взаимодействие с ИИ за рамки обычного текста в графические среды. Большая часть кода была сгенерирована ИИ, что демонстрирует практические возможности программирования M2.7.

M2.7 против конкурентов: кому что подходит

Если вам нужно…Лучший выбор
Максимальный потолок бенчмарков независимо от стоимостиClaude Opus 4.6
Лучшая производительность по программированию с учётом стоимостиMiniMax M2.7
Максимальная скорость инференсаMiniMax M2.7 (100 TPS)
Высококонкурентные агентные рабочие нагрузкиMiniMax M2.7 (в 50 раз дешевле)
Автоматизация офисной продуктивностиMiniMax M2.7 (наивысший GDPval-AA ELO)
Устоявшаяся экосистема и интеграцииClaude или GPT
Возможности самообучающихся агентовMiniMax M2.7 (OpenClaw)

Попробуйте M2.7 на WaveSpeedAI

WaveSpeedAI предоставляет доступ к MiniMax M2.7 наряду с сотнями других ИИ-моделей через единую платформу. Независимо от того, создаёте ли вы агентов по программированию, конвейеры обработки документов или интерактивные приложения, сочетание производительности Tier-1 и стоимости на порядок ниже делает M2.7 наиболее эффективным выбором для производственных нагрузок.

Попробуйте MiniMax M2.7 на WaveSpeedAI →

Никаких подписок. Никаких холодных стартов. Платите только за то, что используете.

Итог

MiniMax M2.7 — это не просто очередной релиз модели: это доказательство концепции самообучающегося ИИ. Модель всего с 10 млрд активированных параметров, соответствующая Opus и GPT-5 на самых сложных инженерных бенчмарках при работе в 3 раза быстрее и в 50 раз дешевле, — именно такой переворот меняет подход команд к разработке с применением ИИ.

Вопрос не в том, достаточно ли хороша M2.7. Вопрос в том, можете ли вы оправдать переплату в 50 раз за минимальные преимущества.

Поделиться