Mixtral-8x7B-Instruct-v0.1

Large Language Models (LLM)

El modelo Mixtral-8x7B-Instruct-v0.1, desarrollado por Mistral AI, es un modelo de «Sparse Mixture of Experts» (Mezcla escasa de Expertos) lanzado en 2023. Está optimizado para seguir instrucciones, completar solicitudes y generar formatos de texto creativos.

Acerca del modelo Mixtral-8x7B-Instruct-v0.1

Publicado el huggingface

11/12/2023


Precio de entrada

0.63 /Mtoken(entrada)

Precio de salida

0.63 /Mtoken(salida)


Características soportadas
Streaming
Formatos de salida
raw_textjson_objectjson_schema
Tamaños de contexto
32k
Parámetros
46.7B

Prueba el modelo jugando con él.