Publicatiedatum: 20 maart 2026
MiniMax heeft M2.7 uitgebracht, een groot taalmodel met een onderscheidend zelfevolutiemechanisme waarmee het kan deelnemen aan zijn eigen reinforcement learning en iteratieve optimalisatie. Het bedrijf stelt dat het model in bepaalde onderzoeks- en ontwikkelscenarios 30 tot 50 procent van het werk autonoom kan uitvoeren. M2.7 is direct beschikbaar via het MiniMax Agent-platform en de MiniMax API.
Wat M2.7 doet
M2.7 is gebouwd voor complexe agentworkflows. Het ondersteunt van nature Agent Teams, een multi-agentarchitectuur waarbij meerdere modelinstanties samenwerken aan een taak, en beschikt over een dynamische toolzoekmogelijkheid waarmee het relevante tools kan identificeren en integreren tijdens taakuitvoering. Het model richt zich op drie primaire domeinen: software-engineering, professioneel kantoorwerk en multi-agentcoordinatie.
De zelfevolutiemogelijkheid is het meest kenmerkende aspect. M2.7 kan iteratieve lussen uitvoeren waarbij het mislukte trajecten analyseert, wijzigingen in zijn eigen scaffoldingcode plant, die wijzigingen uitvoert en evaluaties opnieuw uitvoert. Bij intern testen meldt MiniMax dat het model meer dan 100 van deze autonome cycli heeft voltooid, met prestatieverbeteringen van ongeveer 30 procent op interne benchmarks.
Technische prestaties
Op de SWE-Pro-benchmark voor software-engineering scoort M2.7 56,22 procent, gelijk aan GPT-5.3-Codex. Op Terminal Bench 2, een benchmark voor systeembegrip in live codeomgevingen, scoort het 57,0 procent. Voor agentachtige taken behaalt M2.7 62,7 procent op MM Claw en 46,3 procent op Toolathon. Op machine learning-onderzoekstaken (MLE Bench Lite) behaalt het een gemiddelde medallijst van 66,6 procent over drie afzonderlijke periodes van 24 uur, waarmee het tweede staat na Claude Opus 4.6.
Voor kantoor- en documentwerk behaalt M2.7 een ELO-score van 1495 op GDPval-AA, waarmee het tweede staat van de 45 geteste modellen in die evaluatie. Op de AA-Omniscience Index, een hallucinatiemeting, scoort M2.7 +1, een aanzienlijke verbetering ten opzichte van M2.5 dat -40 scoorde op dezelfde maatstaf.
Vergelijking met M2.5 en concurrenten
De hallucinatiereductie van M2.5 naar M2.7 is de meest numeriek duidelijke verbetering. De sprong van -40 naar +1 op de AA-Omniscience Index vertegenwoordigt een betekenisvolle verschuiving in feitelijke betrouwbaarheid, wat relevant is voor professionele documentgeneratie en gebruik als onderzoeksassistent.
Vergeleken met frontier-modellen zit M2.7 iets onder Claude Opus 4.6 op de meeste benchmarks, maar boven GPT-5.3-Codex op software-engineeringtaken. De zelfevolutiefunctie heeft geen direct equivalent in momenteel beschikbare modellen van OpenAI, Anthropic of Google, hoewel die bedrijven hun eigen geautomatiseerde optimalisatie intern uitvoeren voor het uitbrengen van modellen. Wat M2.7 onderscheidt, is dat de zelfevolutielus deel uitmaakt van het runtimegedrag van het uitgebrachte model, niet alleen een trainingstijdfunctie.
Toepassingen en beschikbaarheid
M2.7 is geschikt voor teams die geautomatiseerde softwareontwikkelingspijplijnen uitvoeren, onderzoeksworkflows met herhaalde evaluatie en iteratie, en documentintensieve kantoorwerkzaamheden. De Agent Teams-functie maakt het geschikt voor organisaties die multi-agentsystemen bouwen waarbij verschillende instanties afzonderlijke delen van een workflow afhandelen.
Het model is toegankelijk via agent.minimax.io en via de MiniMax API op platform.minimax.io. Coderingspecifieke plannen zijn apart beschikbaar. MiniMax heeft geen specifieke prijsstelling bekendgemaakt in de publieke releasenotes.
De volledige releaseaankondiging is beschikbaar op de MiniMax-nieuwspagina.
SEO METADATA
Meta title: MiniMax lanceert M2.7: zelfevoluerende AI-model
Meta description: MiniMax lanceert M2.7, een LLM dat 30-50% van eigen RL-training automatiseert. Evenaart GPT-5.3-Codex op SWE-Pro. Beschikbaar via MiniMax API.
Focus keyphrase: MiniMax M2.7 zelfevoluerende AI-model
Voorgestelde URL-slug: minimax-lanceert-m2-7-zelfevoluerende-ai-model