{"id":3439103,"date":"2026-04-28T11:40:18","date_gmt":"2026-04-28T09:40:18","guid":{"rendered":"https:\/\/datanorth.ai\/?post_type=news&#038;p=3439103"},"modified":"2026-04-28T11:40:07","modified_gmt":"2026-04-28T09:40:07","slug":"alibaba-launches-happyhorse-video-model","status":"publish","type":"news","link":"https:\/\/datanorth.ai\/nl\/nieuws\/alibaba-launches-happyhorse-video-model","title":{"rendered":"Alibaba lanceert HappyHorse-1.0: het nummer \u00e9\u00e9n gerankte AI-videomodel"},"content":{"rendered":"\n<p><em>Gepubliceerd: 28 april 2026<\/em><\/p>\n\n\n\n<p>Alibaba&#8217;s Taotian Future Life Lab, onderdeel van de Alibaba Token Hub-divisie, heeft HappyHorse-1.0 officieel gelanceerd. Het gaat om een AI-videogeneratiemodel dat de nummer \u00e9\u00e9n positie inneemt op de Artificial Analysis Video Arena, zowel in de categorie Text-to-Video als Image-to-Video. Ontwikkelaars en bedrijven kunnen het model sinds 27 april 2026 benaderen via de API van fal, met vier endpoints: text-to-video, image-to-video, reference-to-video en video-edit.<\/p>\n\n\n\n<p>HappyHorse-1.0 is een unified Transformer met 15 miljard parameters die gesynchroniseerde video en audio genereert in \u00e9\u00e9n enkele forward pass, met native lip-sync in zeven talen. Het model produceert 1080p-output in circa 38 seconden op een enkele NVIDIA H100 GPU.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Wat kan HappyHorse-1.0?<\/h2>\n\n\n\n<p>HappyHorse-1.0 is een unified 40-laags self-attention Transformer die video en audio gezamenlijk genereert in \u00e9\u00e9n forward pass, zonder cross-attention modules en zonder een aparte audiobewerkingsstap. Deze architectuur zorgt ervoor dat het model gesynchroniseerde audiovisuele output produceert, inclusief lip-sync in zeven talen:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Engels,<\/li>\n\n\n\n<li>Mandarijn,<\/li>\n\n\n\n<li>Kantonees,<\/li>\n\n\n\n<li>Japans,<\/li>\n\n\n\n<li>Koreaans,<\/li>\n\n\n\n<li>Duits,<\/li>\n\n\n\n<li>Frans.<\/li>\n<\/ul>\n\n\n\n<p>Het model biedt vier API-endpoints:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>text-to-video (video genereren op basis van een tekstprompt),<\/li>\n\n\n\n<li>image-to-video (een stilstaand beeld animeren),<\/li>\n\n\n\n<li>reference-to-video (consistente karakteridentiteit behouden over meerdere shots)<\/li>\n\n\n\n<li>video-edit (bestaande videocontent bewerken).<\/li>\n<\/ul>\n\n\n\n<p>De output is beschikbaar in <strong>720p en 1080p<\/strong>, in beeldverhoudingen zoals <strong>16:9<\/strong>, <strong>9:16<\/strong>, <strong>1:1<\/strong>, <strong>4:3<\/strong> en <strong>3:4<\/strong>. Dat maakt het model geschikt voor diverse platformen, van YouTube tot TikTok en Instagram.<\/p>\n\n\n\n<p>Een opvallende eigenschap is de camerasturing: HappyHorse-1.0 reageert op specifieke cinematografische aanwijzingen zoals &#8220;slow dolly push-in&#8221;, &#8220;overhead crane shot&#8221; en variaties in windintensiteit. Het model ondersteunt ook multi-shot-sequenties met consistente karakteridentiteit, wat relevant is voor productpromo&#8217;s, social media-content en korte verhalende video&#8217;s.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">HappyHorse-1.0 benchmarks en technische specificaties<\/h2>\n\n\n\n<p>Op de Artificial Analysis Video Arena, waar modellen worden gerangschikt op basis van blinde menselijke voorkeursstemmen (gebruikers vergelijken twee clips zonder te weten welk model ze heeft geproduceerd), behaalde HappyHorse-1.0 een Elo-score van 1333 in Text-to-Video en 1392 in Image-to-Video (beide zonder audio-evaluatie). Met audio in de beoordeling scoort het model 1238 Elo. Deze scores plaatsen HappyHorse-1.0 boven alle andere videogeneratiemodellen die momenteel op het platform gebenchmarkt zijn, waaronder ByteDance&#8217;s Dreamina Seedance 2.0, dat bijna 115 Elo-punten lager scoort bij text-to-video.<\/p>\n\n\n\n<p>Het model bevat 15 miljard parameters in een 40-laags self-attention Transformer-architectuur. Op een enkele NVIDIA H100 GPU genereert HappyHorse-1.0 1080p-video in circa 38 seconden en een clip van 5 seconden op 256p-resolutie in ongeveer 2 seconden. Het model is ontwikkeld onder leiding van Zhang Di, een AI-veteraan met 15 jaar ervaring die eerder VP was bij Kuaishou en de technisch architect achter Kling AI, voordat hij eind 2025 terugkeerde bij Alibaba.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Hoe verhoudt HappyHorse-1.0 zich tot andere AI-videomodellen?<\/h2>\n\n\n\n<p>HappyHorse-1.0 is het eerste videomodel dat de toppositie bereikt op de Artificial Analysis-ranglijst. Het belangrijkste onderscheid ten opzichte van concurrenten zoals Dreamina Seedance 2.0, Sora, Veo, Runway, Pika en Luma is de gecombineerde audio-videogeneratie. Waar de meeste concurrerende modellen stille video genereren en een apart audiopijplijn vereisen, produceert HappyHorse-1.0 video met gesynchroniseerde dialoog, omgevingsgeluid en Foley-effecten in \u00e9\u00e9n enkele inferentiestap.<\/p>\n\n\n\n<p>De native meertalige lip-sync in zeven talen is een ander punt waarop HappyHorse-1.0 zich onderscheidt. De meeste concurrerende modellen bieden geen lip-sync of ondersteunen uitsluitend Engels. De combinatie van hoge visuele kwaliteit (bevestigd door het blinde stemproces van de Arena) met native audio maakt HappyHorse-1.0 bijzonder relevant voor toepassingen met sprekende personen, productdemonstraties met voice-over en meertalige social media-productie.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">HappyHorse-1.0 prijzen en beschikbaarheid<\/h2>\n\n\n\n<p>HappyHorse-1.0 is nu beschikbaar via het generatieve mediaplatform van fal. De prijs bedraagt $0,14 per seconde gegenereerde video op 720p-resolutie en $0,28 per seconde op 1080p, zonder minimale besteding of abonnementsvereiste. Zakelijke tarieven zijn beschikbaar op aanvraag. fal garandeert volledige commerci\u00eble rechten op alle gegenereerde output.<\/p>\n\n\n\n<p>Ontwikkelaars kunnen HappyHorse-1.0 integreren via de Python- en JavaScript-SDK&#8217;s van fal. De vier API-endpoints zijn bereikbaar via fal.ai\/models\/alibaba\/happy-horse\/ gevolgd door text-to-video, image-to-video, reference-to-video of video-edit. Er is ook een playground beschikbaar op de fal-website voor niet-technische gebruikers.<\/p>\n\n\n\n<p>HappyHorse-1.0 is eveneens beschikbaar via Alibaba Cloud Model Studio (Bailian), waar een introductiekorting van 10% geldt voor early access-gebruikers. Het model is ontwikkeld door Alibaba&#8217;s Taotian Future Life Lab en is wereldwijd beschikbaar vanaf de lancering.<\/p>\n\n\n\n<p><em>Voor volledige technische details en API-documentatie, bezoek de <a href=\"https:\/\/fal.ai\/happyhorse-1.0\" target=\"_blank\" rel=\"noreferrer noopener\">offici\u00eble HappyHorse-1.0-pagina op fal<\/a>.<\/em><\/p>\n","protected":false},"excerpt":{"rendered":"<p>HappyHorse-1.0 van Alibaba is een AI-videomodel met 15 miljard parameters dat gesynchroniseerde audio en video genereert in \u00e9\u00e9n pass, en op dit moment de nummer \u00e9\u00e9n positie inneemt op de Artificial Analysis Video Arena.<\/p>\n","protected":false},"author":12,"featured_media":3439101,"template":"","tags":[],"news-category":[],"class_list":["post-3439103","news","type-news","status-publish","has-post-thumbnail"],"meta_box":[],"_links":{"self":[{"href":"https:\/\/datanorth.ai\/nl\/wp-json\/wp\/v2\/news\/3439103","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/datanorth.ai\/nl\/wp-json\/wp\/v2\/news"}],"about":[{"href":"https:\/\/datanorth.ai\/nl\/wp-json\/wp\/v2\/types\/news"}],"author":[{"embeddable":true,"href":"https:\/\/datanorth.ai\/nl\/wp-json\/wp\/v2\/users\/12"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/datanorth.ai\/nl\/wp-json\/wp\/v2\/media\/3439101"}],"wp:attachment":[{"href":"https:\/\/datanorth.ai\/nl\/wp-json\/wp\/v2\/media?parent=3439103"}],"wp:term":[{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/datanorth.ai\/nl\/wp-json\/wp\/v2\/tags?post=3439103"},{"taxonomy":"news-category","embeddable":true,"href":"https:\/\/datanorth.ai\/nl\/wp-json\/wp\/v2\/news-category?post=3439103"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}