Utoljára frissült: 45 perce·Ma: 47 cikk feldolgozva
Modellek & LLM

A Mistral csendben kiadta az év nyílt forráskódú AI-modelljét — 119 milliárd paraméter, Apache licensz

A francia startup új modellje egyszerre gondolkodik, lát és kódol — miközben a paramétereinek csak töredékét használja egyszerre.

A Mistral csendben kiadta az év nyílt forráskódú AI-modelljét — 119 milliárd paraméter, Apache licensz
Unsplash / GuerrillaBuzz
Forrás: Simon Willison / Mistral AISzerző: AI Forradalom szerk.

A Mistral AI csütörtökön tette közzé a Mistral Small 4-et, és ha a neve alapján kisebb modellre számítanánk, alaposan tévedünk: 119 milliárd paraméterről beszélünk, Apache 2.0 licensszel, szabadon felhasználhatóan. Ez a pillanat, amikor a nyílt forráskódú AI-modellek komolyan elkezdik fenyegetni a zárt rendszereket.

A trükk a Mixture-of-Experts (MoE) architektúrában rejlik: a modell 128 szakértőből áll, de egy-egy tokennél csak 4 aktiválódik — vagyis effektíve 6 milliárd aktív paraméterrel dolgozik. Az eredmény: a GPT-OSS 120B-vel összevethető teljesítmény, de háromszor annyi kérést szolgál ki másodpercenként, és 40 százalékkal gyorsabb válaszidőt produkál.

Ami igazán újdonság: a Mistral Small 4 három korábbi modell képességeit egyesíti. A Magistral gondolkodási mélységét, a Pixtral multimodális képességeit és a Devstral kódolási tudását — egyetlen modellben. A reasoning_effort paraméterrel állítható, hogy a modell azonnal válaszoljon, vagy mélyebben gondolkodjon.

A 256 ezres kontextusablak azt jelenti, hogy egy teljes kódrepozitóriumot vagy egy könyv terjedelmű dokumentumot is képes egyben feldolgozni. A modell elérhető a Mistral API-n, a Hugging Face-en (242 GB), és támogatja a vLLM-et, a llama.cpp-t és a Transformers könyvtárat is.

A nagy kérdés: ha egy szabadon letölthető, Apache-licenszes modell már ilyen szinten teljesít, akkor miért fizetnénk a zárt API-kért? A Mistral Small 4 nem csak egy újabb modell — ez egy üzenet az egész iparágnak.