{"id":3436189,"date":"2026-04-03T10:47:40","date_gmt":"2026-04-03T09:47:40","guid":{"rendered":"https:\/\/datanorth.ai\/?post_type=news&#038;p=3436189"},"modified":"2026-04-03T10:47:32","modified_gmt":"2026-04-03T09:47:32","slug":"arcee-ai-brengt-trinity-large-thinking-uit-als-open-source","status":"publish","type":"news","link":"https:\/\/datanorth.ai\/nl\/nieuws\/arcee-ai-brengt-trinity-large-thinking-uit-als-open-source","title":{"rendered":"Arcee AI brengt Trinity-Large-Thinking uit als Open Source"},"content":{"rendered":"\n<p><em>Gepubliceerd: 3 april 2026<\/em><\/p>\n\n\n\n<p>Arcee AI, een open-intelligence lab uit San Francisco, heeft Trinity-Large-Thinking uitgebracht: een redeneermodel met 399 miljard parameters onder de Apache 2.0-licentie. Het model gebruikt een sparse Mixture-of-Experts-architectuur met circa 13 miljard actieve parameters per token, waardoor het een van de krachtigste open-source modellen is die beschikbaar zijn voor zakelijke aanpassing.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Architectuur en training<\/h2>\n\n\n\n<p>Trinity-Large-Thinking is gebouwd op Trinity-Large-Base, een MoE-model met 398 miljard parameters dat gebruikmaakt van 256 experts waarvan er 4 actief zijn per token. Het model heeft een ongebruikelijk hoge sparsity-ratio van 1,56% en gebruikt 6 dense lagen (opgeschaald van oorspronkelijk 3) om de routeringsstabiliteit over experts te behouden.<\/p>\n\n\n\n<p>De training kostte $20 miljoen, bijna de helft van Arcee&#8217;s totale financiering, en duurde 33 dagen op een cluster van 2.048 NVIDIA B300 Blackwell GPU&#8217;s. Het basismodel is getraind op 17 biljoen tokens, waarvan meer dan 8 biljoen synthetische data. DatologyAI verzorgde de datacuratie, met dekking van programmeren, STEM, redeneren en 14 niet-Engelse talen.<\/p>\n\n\n\n<p>Trinity-Large-Thinking voegt uitgebreide chain-of-thought-redeneringen en agentische reinforcement learning toe bovenop het basismodel. Het genereert expliciete redeneersporen in think-blokken voordat het definitieve antwoorden produceert, vergelijkbaar met de aanpak van andere op redeneren gerichte modellen.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Prestaties<\/h2>\n\n\n\n<p>De Trinity-Large Preview-variant scoort 87,2 op MMLU en 24,0 op AIME 2025. Arcee claimt dat het model gelijkwaardig presteert aan of beter is dan vergelijkbare modellen op het gebied van wiskunde, codering en wetenschappelijk redeneren, terwijl het dankzij het sparse activatiepatroon circa 2 tot 3 keer sneller draait op dezelfde hardware.<\/p>\n\n\n\n<p>Het model ondersteunt een native contextvenster van 512.000 tokens, wat het geschikt maakt voor analyse van lange documenten en uitgebreide agentische workflows die context moeten behouden over vele interactierondes.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Open-source strategie<\/h2>\n\n\n\n<p>Trinity-Large-Thinking is uitgebracht onder de Apache 2.0-licentie, wat onbeperkt commercieel gebruik en volledige aanpassing mogelijk maakt. Arcee beschrijft het model als een zeldzaam voorbeeld van een krachtig, in de VS gemaakt AI-model dat bedrijven kunnen downloaden en aanpassen zonder licentiebeperkingen. De volledige modelgewichten zijn beschikbaar op Hugging Face in drie varianten: Preview (instruction-tuned), Base (volledig 17T-tokencheckpoint) en TrueBase (vroeg 10T-tokencheckpoint zonder instructdata).<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Beschikbaarheid<\/h2>\n\n\n\n<p>Het model is live op Hugging Face en beschikbaar via OpenRouter. Het draait ook op DigitalOcean&#8217;s Agentic Inference Cloud voor beheerde hosting.<\/p>\n\n\n\n<p><em>Lees de volledige technische details op <a href=\"https:\/\/www.arcee.ai\/blog\/trinity-large\" target=\"_blank\" rel=\"noopener noreferrer nofollow\">de blog van Arcee AI<\/a>.<\/em><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Arcee AI brengt Trinity-Large-Thinking uit, een open-source redeneermodel met 399B parameters onder Apache 2.0.<\/p>\n","protected":false},"author":12,"featured_media":3436187,"template":"","tags":[],"news-category":[],"class_list":["post-3436189","news","type-news","status-publish","has-post-thumbnail"],"meta_box":[],"_links":{"self":[{"href":"https:\/\/datanorth.ai\/nl\/wp-json\/wp\/v2\/news\/3436189","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/datanorth.ai\/nl\/wp-json\/wp\/v2\/news"}],"about":[{"href":"https:\/\/datanorth.ai\/nl\/wp-json\/wp\/v2\/types\/news"}],"author":[{"embeddable":true,"href":"https:\/\/datanorth.ai\/nl\/wp-json\/wp\/v2\/users\/12"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/datanorth.ai\/nl\/wp-json\/wp\/v2\/media\/3436187"}],"wp:attachment":[{"href":"https:\/\/datanorth.ai\/nl\/wp-json\/wp\/v2\/media?parent=3436189"}],"wp:term":[{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/datanorth.ai\/nl\/wp-json\/wp\/v2\/tags?post=3436189"},{"taxonomy":"news-category","embeddable":true,"href":"https:\/\/datanorth.ai\/nl\/wp-json\/wp\/v2\/news-category?post=3436189"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}