AiVoer
← Terug naar overzicht

Mistral Small 4 pakt 119B parameters in 8B actief in

Modellen

Mistral bracht Small 4 uit, een 119B-parameter mixture-of-experts model met slechts 8B actief per token, onder Apache 2.0. Het voegt samen wat voorheen drie s...

Mistral bracht Small 4 uit, een 119B-parameter mixture-of-experts model met slechts 8B actief per token, onder Apache 2.0. Het combineert wat voorheen drie aparte Mistral-producten waren - Magistral voor redenering, Pixtral voor visie en Devstral voor codering - in één model met instelbare redeneermogelijkheden. Het 256k-contextvenster en de 3x doorvoerverbetering ten opzichte van Small 3 maken het een rechtstreekse zet voor de high-volume API-tier. Op LiveCodeBench presteert het beter dan GPT-OSS 120B terwijl het 20% minder uitvoer genereert, wat belangrijk is als je per token betaalt. OpenAI bracht dezelfde week GPT-5.4 nano uit, en Mistral mikt duidelijk op dezelfde ontwikkelaarsbudgetten - open weights en Apache-licenties blijven hun sterkste onderscheidingsfactor in die strijd.