
Mistral Small 4 Review 2026: EU-Compliant, Open-Weight, $0.15/M Input
Mistral Small 4는 2026년 3월 16일 출시된 Apache 2.0 라이선스 오픈웨이트 모델로, 119B 총 파라미터 중 토큰당 6.5B만 활성화하는 MoE 아키텍처를 사용합니다. 단일 모델이 추론, 비전, 코딩을 모두 처리하며 Mistral API를 통해 입력 토큰당 $0.15/M에 제공됩니다. What Is Mistral Small 4? (119B MoE That Replaced Three Models) Mistral Small 4는 Mixtral 구조를 계승한 Mixture-of-Experts(MoE) 언어 모델로, 총 119B 파라미터를 보유하지만 각 forward pass에서 128개 전문가 중 4개만 활성화해 약 6.5B 파라미터만 사용합니다. 이 설계 덕분에 대형 모델 수준의 성능을 소형 모델 수준의 추론 비용으로 달성합니다. 출시 전 Mistral은 추론 특화 Magistral, 비전 특화 Pixtral, 코딩 특화 Devstral이라는 별도 모델 라인업을 유지했는데, Mistral Small 4는 이 세 모델의 역할을 단일 가중치로 통합합니다. API 모델 ID는 mistral-small-2603이며 HuggingFace에 BF16 기준 242GB 가중치가 공개돼 있습니다. 2026년 3월 16일 이 모델이 사전 공지 없이 조용히 출시됐을 때 VentureBeat는 “추론·비전·코딩을 단일 모델로 통합하면서 추론 비용을 대폭 절감"했다고 평가했습니다. 기업 관점에서 중요한 것은 Apache 2.0 라이선스로, 로열티·사용 제한 없이 상업적 제품 개발, 파인튜닝, 온프레미스 배포가 모두 허용됩니다. Grouped-Query Attention(GQA) 아키텍처를 통해 품질 손실 없이 추론 효율을 개선했으며, Mistral Small 3 대비 완성 시간이 40% 단축되고 처리량이 3배 향상됐습니다. ...