IBM brengt Granite 4.1 uit

01-05-2026

De release past in IBM's strategie om enterprise-grade open-source AI-modellen te bieden met transparante trainingspraktijken en permissieve licenties.

Geschreven door:

Jorick van Weelie

Jorick van Weelie | Marketing Lead & AI-strateeg bij DataNorth AI Als Marketing Lead bij DataNorth bevindt Jorick zich op het snijvlak van merkautoriteit en technische innovatie. Hij is gespecialiseerd in het vertalen van complexe AI-architecturen naar concrete bedrijfsstrategieën, waarbij hij ervoor zorgt dat AI niet slechts een "tool" is, maar een katalysator voor groei. Met een sterke focus op de EU AI Act en AI-driven growth marketing geeft Jorick vorm aan het narratief van het Nederlandse AI-landschap, waarbij hij organisaties helpt om vertrouwen op te bouwen terwijl ze hun intelligentie verder opschalen.

Meld je aan voor de Nieuwsbrief

Publicatiedatum: 1 mei 2026

IBM heeft de Granite 4.1-familie van taalmodellen uitgebracht in drie formaten: 3B, 8B en 30B parameters, allemaal beschikbaar onder de Apache 2.0-licentie. De modellen hebben contextvensters tot 512.000 tokens en zijn getraind op ongeveer 15 biljoen tokens. Het Granite 4.1 8B instruct-model evenaart of overtreft het eerdere Granite 4.0 32B mixture-of-experts model, terwijl het een eenvoudigere dense architectuur gebruikt.

Wat is IBM Granite 4.1?

IBM Granite 4.1 is een familie van dense, decoder-only taalmodellen ontworpen voor zakelijk gebruik. De familie omvat drie formaten: 3B, 8B en 30B parameters, elk beschikbaar in zowel base- als instruct-varianten. Alle modellen gebruiken een dense transformer-architectuur in plaats van de mixture-of-experts-aanpak van het eerdere Granite 4.0 32B-model.

De modellen zijn getraind op ongeveer 15 biljoen tokens in meerdere fasen, beginnend met brede pre-training en geleidelijk overgaand naar hoogwaardige technische, wetenschappelijke en wiskundige data met nadruk op instructieopvolging. Contextvensters reiken tot 512.000 tokens, zodat de modellen lange documenten kunnen verwerken zonder prestatieverlies bij kortere contexttaken. IBM heeft alle Granite 4.1-modellen uitgebracht onder de Apache 2.0-licentie, waardoor ze volledig open source zijn voor commercieel en onderzoeksgebruik.

Granite 4.1 benchmarks en technische specificaties

De meest opvallende prestatieclaim voor Granite 4.1 is dat het 8B instruct-model consistent het Granite 4.0 32B mixture-of-experts model evenaart of overtreft. Dit is belangrijk omdat het 8B-model ruwweg een kwart van de parameters gebruikt met een eenvoudigere architectuur, waardoor het praktischer is voor fine-tuning en inzet in omgevingen met beperkte resources.

Het 30B-model richt zich op werklasten die sterkere redenering en generatiekwaliteit vereisen, terwijl het 3B-model geoptimaliseerd is voor edge-inzet en latentiegevoelige toepassingen. IBM heeft naast de taalmodellen ook Granite Speech 4.1-modellen uitgebracht, met meertalige spraakherkenning en vertaalmogelijkheden voor edge-toepassingen.

Beschikbaarheid en licentie van Granite 4.1

Alle Granite 4.1-modellen zijn uitgebracht onder de Apache 2.0-licentie, een van de meest permissieve open-sourcelicenties die beschikbaar is. Dit staat onbeperkt commercieel gebruik, aanpassing en herdistributie toe. De modellen zijn beschikbaar op Hugging Face onder de ibm-granite organisatie, op Ollama voor lokale inzet, en via IBM’s enterprise AI-platform.

De Apache 2.0-licentie onderscheidt Granite 4.1 van veel concurrerende modellen die restrictievere licenties gebruiken. Vergeleken met de aangepaste MIT-licentie van Mistral Medium 3.5 of Meta’s Llama-licentie legt Apache 2.0 minder beperkingen op aan afgeleide werken en commerciele toepassingen. Voor bedrijven die open-source modellen evalueren, kan deze eenvoud in licenties een doorslaggevende factor zijn.

Hoe verhoudt Granite 4.1 zich tot andere open modellen?

In het huidige landschap van open-weight modellen concurreert Granite 4.1 voornamelijk met Meta’s Llama-familie, Mistral’s modellen en Alibaba’s Qwen-serie. De prestatie van het 8B-model ten opzichte van het vorige 32B MoE-model wijst op sterke trainingsefficiency, hoewel directe benchmarkvergelijkingen met Llama 4 en Qwen 3 bij vergelijkbare parameteraantallen de competitieve positionering zullen bepalen.

IBM’s focus met Granite is consequent gericht op enterprise-gereedheid: transparante trainingsdatadocumentatie, sterke instructieopvolgingscapaciteiten en permissieve licenties. Het 512K contextvenster plaatst Granite 4.1 bij de open modellen met de langste context die momenteel beschikbaar zijn, naast het 256K venster van Mistral Medium 3.5 en recente Qwen-modellen.

De Granite 4.1-familie is nu beschikbaar op Hugging Face via huggingface.co/ibm-granite en via Ollama. IBM’s volledige technische blogpost is te vinden op research.ibm.com/blog/granite-4-1-ai-foundation-models.