Mistral-Small-3.2-24B-Instruct-2506

NouveauVisual LLM

Building upon Mistral Small 3 (2501), Mistral Small 3.2 (2506) adds state-of-the-art vision understanding and enhances long context capabilities up to 128k tokens without compromising text performance. With 24 billion parameters, this model achieves top-tier capabilities in both text and vision tasks. This model is a minor update of Mistral-Small-3.1-24B-Instruct-2503, which is an instruction-finetuned version of: Mistral-Small-3.1-24B-Base-2503.

À propos du modèle Mistral-Small-3.2-24B-Instruct-2506

Publié sur huggingface

20/06/2025


Token envoyés

0.09 /Mtoken(entrée)

Token reçus

0.28 /Mtoken(sortie)


Fonctionnalités prises en charge
Function callingMultimodalStreaming
Formats de sortie
raw_textjson_objectjson_schema
Taille du contexte
128k
Paramètres
24B

Essayez le modèle.