Mistral-Small-3.2-24B-Instruct-2506

Visual LLM

S'appuyant sur Mistral Small 3 (2501), Mistral Small 3.2 (2506) ajoute une compréhension de la vision de pointe et améliore les capacités de contexte long jusqu'à 128k tokens sans compromettre les performances textuelles. Avec 24 milliards de paramètres, ce modèle atteint des capacités de premier ordre dans les tâches textuelles et visuelles. Ce modèle est une mise à jour mineure de Mistral-Small-3.1-24B-Instruct-2503, qui est une version affinée pour les instructions de : Mistral-Small-3.1-24B-Base-2503.

À propos du modèle Mistral-Small-3.2-24B-Instruct-2506

Publié sur huggingface

20/06/2025


Token envoyés

0.09 /Mtoken(entrée)

Token reçus

0.28 /Mtoken(sortie)


Fonctionnalités prises en charge
Function callingMultimodalStreaming
Formats de sortie
raw_textjson_objectjson_schema
Taille du contexte
128k
Paramètres
24B

Essayez le modèle.