Google lanceert Gemma 4: vier open modellen met Apache 2.0-licentie

03-04-2026

Google DeepMind brengt Gemma 4 uit: vier open-weight AI-modellen met Apache 2.0-licentie, multimodale ondersteuning en grote benchmarkverbeteringen.

Geschreven door:

Jorick van Weelie

Meld je aan voor de Nieuwsbrief

03/04/2026

Google DeepMind heeft op 2 april 2026 Gemma 4 uitgebracht, een familie van vier open-weight modellen die gebouwd zijn op hetzelfde onderzoek als Gemini 3. De modellen varieren van 2,3 miljard tot 30,7 miljard parameters en worden geleverd onder de Apache 2.0-licentie, waardoor ze vrij beschikbaar zijn voor commercieel en overheidsgerelateerd AI-gebruik zonder beperkingen.

Gemma 4 markeert een belangrijke verschuiving ten opzichte van Google’s eerdere aangepaste licentiebenadering en introduceert native multimodale ondersteuning in alle modelgroottes, met dekking voor tekst-, beeld-, audio- en video-invoer.

Wat Gemma 4 bevat

De Gemma 4-familie bestaat uit vier modellen: E2B (2,3 miljard effectieve parameters), E4B (4,5 miljard effectieve parameters), een 26B Mixture-of-Experts-model met 3,8 miljard actieve parameters, en een 31B dense model met 30,7 miljard parameters. De kleinere E2B- en E4B-varianten ondersteunen 128K-contextvensters met tekst-, beeld- en audio-invoer. De grotere 26B- en 31B-modellen bieden 256K-contextvensters en voegen videobegrip toe van maximaal 60 seconden.

Alle vier de modellen zijn beschikbaar in zowel basis- als instruction-tuned versies. Ze ondersteunen function calling, gestructureerde JSON-uitvoer en native systeeminstructies, waardoor ontwikkelaars autonome agents kunnen bouwen die met externe tools en API’s communiceren.

Prestatieverbeteringen ten opzichte van Gemma 3

De benchmarkverbeteringen van Gemma 3 naar Gemma 4 zijn aanzienlijk. Op de AIME 2026-wiskundebenchmark scoort het 31B-model 89,2%, tegenover 20,8% bij Gemma 3. De LiveCodeBench v6-codeerprestaties stijgen van 29,1% naar 80,0%, en de GPQA-wetenschapsbenchmark gaat van 42,4% naar 84,3%.

Het 31B dense model staat momenteel op de derde plaats van de hoogst gerankte open modellen wereldwijd op het Arena AI-tekstklassement, met een ELO-rating van ongeveer 1452. Het 26B MoE-model staat op de zesde positie. Op MMLU Pro behaalt het 31B-model 85,2%, terwijl het op MMMU Pro voor visietaken 76,9% scoort.

Gebruik op apparaten en edge-deployment

Google heeft de kleinere Gemma 4-modellen specifiek ontworpen voor gebruik op apparaten. Het E2B-model draait op een Raspberry Pi 5 met 133 tokens per seconde voor prefill en 7,6 tokens per seconde voor decode, met minder dan 1,5 GB geheugen bij 2-bit kwantisatie. Het E4B-model vereist 12 tot 16 GB en draait goed op Apple Silicon-apparaten.

De grotere modellen vereisen zwaardere hardware. Het 26B MoE-model heeft ongeveer 24 GB nodig (geschikt voor een A100 GPU), terwijl het 31B dense model 40 GB of meer vereist, waardoor het het beste geschikt is voor H100 GPU’s bij bf16-precisie.

Licentie en beschikbaarheid

Gemma 4 wordt geleverd onder de Apache 2.0-licentie, dezelfde permissieve licentie die wordt gebruikt door Qwen 3.5. Dit is een afwijking van Google’s eerdere aangepaste Gemma-licentie en betekent dat er geen limieten zijn op maandelijks actieve gebruikers, geen handhaving van acceptabel-gebruiksbeleid, en volledige vrijheid voor commercieel gebruik.

De modellen zijn direct beschikbaar via Hugging Face, Google AI Studio, Ollama, Kaggle, Vertex AI en Cloud Run. Google heeft ook een AICore Developer Preview aangekondigd die Gemma 4 native naar Android-apparaten brengt.

Volledige technische details en modelgewichten zijn beschikbaar op de Google DeepMind Gemma 4-pagina en via de officiele blogaankondiging van Google.