Mixtral-8x7B-Instruct-v0.1

Large Language Models (LLM)

Het model Mixtral-8x7B-Instruct-v0.1, ontwikkeld door Mistral AI, is een Sparse Mixture of Experts-model dat in 2023 is uitgebracht. Het is geoptimaliseerd voor het volgen van instructies, het voltooien van verzoeken en het genereren van creatieve tekstformaten.

Over Mixtral-8x7B-Instruct-v0.1 model

Gepubliceerd op huggingface

11/12/2023


Ingangsprijs

0.63 /Mtoken(invoer)

Uitgangsprijs

0.63 /Mtoken(uitvoer)


Ondersteunde functies
Streaming
Uitvoerformaten
raw_textjson_objectjson_schema
Contextgroottes
32k
Parameters
46.7B

Probeer het model uit door ermee te spelen.