Mixtral-8x7B-Instruct-v0.1

Large Language Models (LLM)

The Mixtral-8x7B-Instruct-v0.1 model, developed by Mistral AI, is a Sparse Mixture of Experts model released in 2023. It is optimized for following instructions, completing requests, and generating creative text formats.

À propos du modèle Mixtral-8x7B-Instruct-v0.1

Publié sur huggingface

11/12/2023


Token envoyés

0.63 /Mtoken(entrée)

Token reçus

0.63 /Mtoken(sortie)


Fonctionnalités prises en charge
Streaming
Formats de sortie
raw_textjson_objectjson_schema
Taille du contexte
32k
Paramètres
46.7B

Essayez le modèle.