{"id":3432333,"date":"2025-12-03T10:04:46","date_gmt":"2025-12-03T09:04:46","guid":{"rendered":"https:\/\/datanorth.ai\/news\/deepseek-releases-v3-2-v3-2-speciale"},"modified":"2025-12-10T11:52:01","modified_gmt":"2025-12-10T10:52:01","slug":"deepseek-brengt-v3-2-v3-2-speciale-uit","status":"publish","type":"news","link":"https:\/\/datanorth.ai\/nl\/nieuws\/deepseek-brengt-v3-2-v3-2-speciale-uit","title":{"rendered":"DeepSeek Brengt V3.2 &amp; V3.2 Speciale uit"},"content":{"rendered":"\n<p>Op 30 november kondigde DeepSeek-AI de release aan van <strong>DeepSeek-V3.2<\/strong> en <strong>DeepSeek-V3.2-Speciale<\/strong>, waarmee <em>reasoning-first<\/em> modellen werden ge\u00efntroduceerd die zijn ontworpen voor <em>agentic<\/em> applicaties. DeepSeek-V3.2 dient als de offici\u00eble opvolger van het experimentele V3.2-Exp model en behaalt prestaties op GPT-5-niveau, terwijl V3.2-Speciale rivaliseert met Gemini-3.0-Pro op het gebied van redeneercapaciteiten.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Beschikbaarheid en toegang tot het model<\/h2>\n\n\n\n<p>DeepSeek-V3.2 is beschikbaar via meerdere kanalen, waaronder de DeepSeek-webinterface, mobiele app en API. Het model behoudt dezelfde gebruikspatronen als de voorgaande V3.2-Exp variant.<\/p>\n\n\n\n<p>DeepSeek-V3.2-Speciale is momenteel exclusief beschikbaar via API via een tijdelijk endpoint, toegankelijk tot 15 december 2025. Deze variant hanteert dezelfde prijsstructuur als V3.2, maar ondersteunt geen <em>tool calls<\/em> tijdens de evaluatieperiode. De Speciale-variant is geoptimaliseerd voor complexe redeneertaken (<em>reasoning tasks<\/em>), maar vereist een hoger tokenverbruik in vergelijking met het standaard V3.2-model.<\/p>\n\n\n\n<p>Beide modellen zijn vrijgegeven als open-source onder de MIT-licentie, waarbij de <em>model weights<\/em> beschikbaar zijn op Hugging Face.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Technische architectuur<\/h2>\n\n\n\n<p>DeepSeek-V3.2 introduceert <strong>DeepSeek Sparse Attention (DSA)<\/strong>, wat de computationele complexiteit vermindert van $O(L^2)$ naar $O(kL)$, waarbij $L$ de sequentielengte vertegenwoordigt en $k$ de geselecteerde tokens. Deze architecturele innovatie maakt een reductie van ongeveer 50% in computationele kosten mogelijk voor scenario&#8217;s met een lange context (<em>long-context<\/em>), terwijl de prestaties van het model behouden blijven. Beide modellen ondersteunen <em>context windows<\/em> tot 128.000 tokens.<\/p>\n\n\n\n<p>Het model maakt gebruik van een <strong>Mixture-of-Experts<\/strong> architectuur die per token slechts een subset van parameters activeert. Dit maakt effici\u00ebnte <em>inference<\/em> mogelijk tegen API-prijzen die aanzienlijk lager liggen dan bij propri\u00ebtaire alternatieven.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Benchmark-prestaties<\/h2>\n\n\n\n<p>DeepSeek-V3.2 behaalde 93,1% nauwkeurigheid op AIME 2025 wiskundeproblemen en bereikte een Codeforces-rating van 2386. Het model scoorde 85,0% op MMLU-Pro, 82,4% op GPQA Diamond en 83,3% op LiveCodeBench.<\/p>\n\n\n\n<p>DeepSeek-V3.2-Speciale demonstreerde 96,0% nauwkeurigheid op AIME 2025 en behaalde een Codeforces-rating van 2701. De Speciale-variant behaalde gouden medaille-prestaties in vier grote competities: de Internationale Wiskunde Olympiade 2025 (IMO), de Chinese Wiskunde Olympiade (CMO), de ICPC World Finals en de Internationale Informatica Olympiade (IOI).<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img decoding=\"async\" width=\"1024\" height=\"571\" src=\"https:\/\/datanorth.ai\/wp-content\/uploads\/2025\/12\/v3.2_251201_benchmark-1024x571.webp\" alt=\"v3.2 251201 benchmark\" class=\"wp-image-3432086\" srcset=\"https:\/\/datanorth.ai\/wp-content\/uploads\/2025\/12\/v3.2_251201_benchmark-1024x571.webp 1024w, https:\/\/datanorth.ai\/wp-content\/uploads\/2025\/12\/v3.2_251201_benchmark-300x167.webp 300w, https:\/\/datanorth.ai\/wp-content\/uploads\/2025\/12\/v3.2_251201_benchmark-768x428.webp 768w, https:\/\/datanorth.ai\/wp-content\/uploads\/2025\/12\/v3.2_251201_benchmark.webp 1080w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n<h2 class=\"wp-block-heading\">&#8216;Thinking&#8217; in tool-use integratie<\/h2>\n\n\n\n<p>DeepSeek-V3.2 vertegenwoordigt het eerste model van DeepSeek dat redeneerprocessen direct integreert in scenario&#8217;s voor <em>tool-calling<\/em>. Het model ondersteunt zowel <em>thinking<\/em> als <em>non-thinking<\/em> modi voor het gebruik van tools.<\/p>\n\n\n\n<p>De gehanteerde trainingsmethodologie maakte gebruik van een grootschalige pijplijn voor synthese van <em>agentic tasks<\/em>, die meer dan 1.800 verschillende omgevingen en 85.000 complexe instructies dekte. Deze uitgebreide synthetische data zorgde voor aanzienlijke verbeteringen in generalisatie en het opvolgen van instructies (<em>instruction-following<\/em>) binnen complexe interactieve omgevingen.<\/p>\n\n\n\n<p>Op agent-gerichte benchmarks behaalde DeepSeek-V3.2 scores van 73,1% op SWE-Verified, 70,2% op SWE-Multilingual, 46,4% op Terminal Bench 2.0 en 38,0% op MCP-Mark.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Prijzen en implementatie<\/h2>\n\n\n\n<p>De API-prijzen worden tijdens de evaluatieperiode gehandhaafd op $0,028 per miljoen input-tokens voor zowel V3.2 als V3.2-Speciale. De open-source release stelt organisaties in staat om <em>self-hosted deployments<\/em> te implementeren met volledige datacontrole en aanpassingsmogelijkheden.<\/p>\n\n\n\n<p>Het technische rapport en de implementatiedetails zijn beschikbaar via de <a href=\"https:\/\/huggingface.co\/deepseek-ai\" target=\"_blank\" rel=\"noopener noreferrer nofollow\">offici\u00eble DeepSeek Hugging Face-repository<\/a>.<\/p>\n\n\n\n<p><em>Voor meer informatie kun je <a href=\"https:\/\/api-docs.deepseek.com\/news\/news251201\" target=\"_blank\" rel=\"noopener noreferrer nofollow\">de offici\u00eble aankondiging van DeepSeek V3.2 bezoeken<\/a>.<\/em><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Het open-source DeepSeek V3.2 levert baanbrekende AI-prestaties en is 25 keer goedkoper dan alternatieven. Lees er alles over in dit artikel.<\/p>\n","protected":false},"author":12,"featured_media":3432090,"template":"","tags":[],"news-category":[],"class_list":["post-3432333","news","type-news","status-publish","has-post-thumbnail"],"meta_box":[],"_links":{"self":[{"href":"https:\/\/datanorth.ai\/nl\/wp-json\/wp\/v2\/news\/3432333","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/datanorth.ai\/nl\/wp-json\/wp\/v2\/news"}],"about":[{"href":"https:\/\/datanorth.ai\/nl\/wp-json\/wp\/v2\/types\/news"}],"author":[{"embeddable":true,"href":"https:\/\/datanorth.ai\/nl\/wp-json\/wp\/v2\/users\/12"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/datanorth.ai\/nl\/wp-json\/wp\/v2\/media\/3432090"}],"wp:attachment":[{"href":"https:\/\/datanorth.ai\/nl\/wp-json\/wp\/v2\/media?parent=3432333"}],"wp:term":[{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/datanorth.ai\/nl\/wp-json\/wp\/v2\/tags?post=3432333"},{"taxonomy":"news-category","embeddable":true,"href":"https:\/\/datanorth.ai\/nl\/wp-json\/wp\/v2\/news-category?post=3432333"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}