Mixtral-8x7B-Instruct-v0.1

Large Language Models (LLM)

Das Mixtral-8x7B-Instruct-v0.1-Modell, entwickelt von Mistral AI, ist ein SMoE-Modell (Sparse Mixture of Experts), das 2023 veröffentlicht wurde. Es ist optimiert für das Befolgen von Anweisungen, das Erfüllen von Anfragen und das Generieren kreativer Textformate.

Über das Mixtral-8x7B-Instruct-v0.1 Modell

Veröffentlicht am huggingface

11/12/2023


Eingabepreis

0.63 /Mtoken(Eingabe)

Ausgabepreis

0.63 /Mtoken(Ausgabe)


Unterstützte Funktionen
Streaming
Ausgabeformate
raw_textjson_objectjson_schema
Kontextgrößen
32k
Parameter
46.7B

Testen Sie das Modell, indem Sie damit spielen.