{"id":3436204,"date":"2026-04-03T14:52:03","date_gmt":"2026-04-03T13:52:03","guid":{"rendered":"https:\/\/datanorth.ai\/?post_type=news&#038;p=3436204"},"modified":"2026-04-03T14:52:18","modified_gmt":"2026-04-03T13:52:18","slug":"google-lanceert-gemma-4-open-modellen","status":"publish","type":"news","link":"https:\/\/datanorth.ai\/nl\/nieuws\/google-lanceert-gemma-4-open-modellen","title":{"rendered":"Google lanceert Gemma 4: vier open modellen met Apache 2.0-licentie"},"content":{"rendered":"\n<p><em>03\/04\/2026<\/em><\/p>\n\n\n\n<p>Google DeepMind heeft op 2 april 2026 Gemma 4 uitgebracht, een familie van vier open-weight modellen die gebouwd zijn op hetzelfde onderzoek als Gemini 3. De modellen varieren van 2,3 miljard tot 30,7 miljard parameters en worden geleverd onder de Apache 2.0-licentie, waardoor ze vrij beschikbaar zijn voor commercieel en overheidsgerelateerd AI-gebruik zonder beperkingen.<\/p>\n\n\n\n<p>Gemma 4 markeert een belangrijke verschuiving ten opzichte van Google&#8217;s eerdere aangepaste licentiebenadering en introduceert native multimodale ondersteuning in alle modelgroottes, met dekking voor tekst-, beeld-, audio- en video-invoer.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>Wat Gemma 4 bevat<\/strong><\/h2>\n\n\n\n<p>De Gemma 4-familie bestaat uit vier modellen: E2B (2,3 miljard effectieve parameters), E4B (4,5 miljard effectieve parameters), een 26B Mixture-of-Experts-model met 3,8 miljard actieve parameters, en een 31B dense model met 30,7 miljard parameters. De kleinere E2B- en E4B-varianten ondersteunen 128K-contextvensters met tekst-, beeld- en audio-invoer. De grotere 26B- en 31B-modellen bieden 256K-contextvensters en voegen videobegrip toe van maximaal 60 seconden.<\/p>\n\n\n\n<p>Alle vier de modellen zijn beschikbaar in zowel basis- als instruction-tuned versies. Ze ondersteunen function calling, gestructureerde JSON-uitvoer en native systeeminstructies, waardoor ontwikkelaars autonome agents kunnen bouwen die met externe tools en API&#8217;s communiceren.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>Prestatieverbeteringen ten opzichte van Gemma 3<\/strong><\/h2>\n\n\n\n<p>De benchmarkverbeteringen van Gemma 3 naar Gemma 4 zijn aanzienlijk. Op de AIME 2026-wiskundebenchmark scoort het 31B-model 89,2%, tegenover 20,8% bij Gemma 3. De LiveCodeBench v6-codeerprestaties stijgen van 29,1% naar 80,0%, en de GPQA-wetenschapsbenchmark gaat van 42,4% naar 84,3%.<\/p>\n\n\n\n<p>Het 31B dense model staat momenteel op de derde plaats van de hoogst gerankte open modellen wereldwijd op het Arena AI-tekstklassement, met een ELO-rating van ongeveer 1452. Het 26B MoE-model staat op de zesde positie. Op MMLU Pro behaalt het 31B-model 85,2%, terwijl het op MMMU Pro voor visietaken 76,9% scoort.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>Gebruik op apparaten en edge-deployment<\/strong><\/h2>\n\n\n\n<p>Google heeft de kleinere Gemma 4-modellen specifiek ontworpen voor gebruik op apparaten. Het E2B-model draait op een Raspberry Pi 5 met 133 tokens per seconde voor prefill en 7,6 tokens per seconde voor decode, met minder dan 1,5 GB geheugen bij 2-bit kwantisatie. Het E4B-model vereist 12 tot 16 GB en draait goed op Apple Silicon-apparaten.<\/p>\n\n\n\n<p>De grotere modellen vereisen zwaardere hardware. Het 26B MoE-model heeft ongeveer 24 GB nodig (geschikt voor een A100 GPU), terwijl het 31B dense model 40 GB of meer vereist, waardoor het het beste geschikt is voor H100 GPU&#8217;s bij bf16-precisie.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>Licentie en beschikbaarheid<\/strong><\/h2>\n\n\n\n<p>Gemma 4 wordt geleverd onder de Apache 2.0-licentie, dezelfde permissieve licentie die wordt gebruikt door Qwen 3.5. Dit is een afwijking van Google&#8217;s eerdere aangepaste Gemma-licentie en betekent dat er geen limieten zijn op maandelijks actieve gebruikers, geen handhaving van acceptabel-gebruiksbeleid, en volledige vrijheid voor commercieel gebruik.<\/p>\n\n\n\n<p>De modellen zijn direct beschikbaar via Hugging Face, Google AI Studio, Ollama, Kaggle, Vertex AI en Cloud Run. Google heeft ook een AICore Developer Preview aangekondigd die Gemma 4 native naar Android-apparaten brengt.<\/p>\n\n\n\n<p><em>Volledige technische details en modelgewichten zijn beschikbaar op de Google DeepMind Gemma 4-pagina en via de officiele blogaankondiging van Google.<\/em><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Google DeepMind brengt Gemma 4 uit: vier open-weight AI-modellen met Apache 2.0-licentie, multimodale ondersteuning en grote benchmarkverbeteringen.<\/p>\n","protected":false},"author":12,"featured_media":3436202,"template":"","tags":[],"news-category":[],"class_list":["post-3436204","news","type-news","status-publish","has-post-thumbnail"],"meta_box":[],"_links":{"self":[{"href":"https:\/\/datanorth.ai\/nl\/wp-json\/wp\/v2\/news\/3436204","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/datanorth.ai\/nl\/wp-json\/wp\/v2\/news"}],"about":[{"href":"https:\/\/datanorth.ai\/nl\/wp-json\/wp\/v2\/types\/news"}],"author":[{"embeddable":true,"href":"https:\/\/datanorth.ai\/nl\/wp-json\/wp\/v2\/users\/12"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/datanorth.ai\/nl\/wp-json\/wp\/v2\/media\/3436202"}],"wp:attachment":[{"href":"https:\/\/datanorth.ai\/nl\/wp-json\/wp\/v2\/media?parent=3436204"}],"wp:term":[{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/datanorth.ai\/nl\/wp-json\/wp\/v2\/tags?post=3436204"},{"taxonomy":"news-category","embeddable":true,"href":"https:\/\/datanorth.ai\/nl\/wp-json\/wp\/v2\/news-category?post=3436204"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}