Mixtral-8x7B-Instruct-v0.1

Large Language Models (LLM)

The Mixtral-8x7B-Instruct-v0.1 model, developed by Mistral AI, is a Sparse Mixture of Experts model released in 2023. It is optimized for following instructions, completing requests, and generating creative text formats.

Informazioni sul modello Mixtral-8x7B-Instruct-v0.1

Pubblicato il huggingface

11/12/2023


Prezzo di input

0.63 /Mtoken(input)

Prezzo di output

0.63 /Mtoken(output)


Funzionalità supportate
Streaming
Formati di output
raw_textjson_objectjson_schema
Dimensioni del contesto
32k
Parametri
46.7B

Prova il modello giocando con esso.