Mixtral-8x7B-Instruct-v0.1

Large Language Models (LLM)

Le modèle Mixtral-8x7B-Instruct-v0.1, développé par Mistral AI, est un modèle Sparse Mixture of Experts publié en 2023. Il est optimisé pour suivre des instructions, compléter des requêtes et générer des formats de texte créatifs.

À propos du modèle Mixtral-8x7B-Instruct-v0.1

Publié sur huggingface

11/12/2023


Token envoyés

0.63 /Mtoken(entrée)

Token reçus

0.63 /Mtoken(sortie)


Fonctionnalités prises en charge
Streaming
Formats de sortie
raw_textjson_objectjson_schema
Taille du contexte
32k
Paramètres
46.7B

Essayez le modèle.