Bge-multilingual-gemma2

Embeddings

BGE-Multilingual-Gemma2 es un modelo de «embeddings» multilingüe basado en LLM. Está entrenado en una amplia gama de idiomas y tareas. BGE-Multilingual-Gemma2 demuestra principalmente los siguientes avances: Datos de entrenamiento diversificados: Los datos de entrenamiento del modelo abarcan una amplia variedad de idiomas, incluidos inglés, chino, japonés, coreano, francés...¡y más!. Además, los datos cubren una variedad de tipos de tareas, como recuperación, clasificación y agrupamiento. Rendimiento excepcional El modelo presenta resultados de última generación («state-of-the-art») en benchmarks multilingües como MIRACL, MTEB-pl y MTEB-fr. También logra un excelente rendimiento en otras evaluaciones importantes, incluidas MTEB, C-MTEB y AIR-Bench.

Acerca del modelo Bge-multilingual-gemma2

Publicado el huggingface

29/06/2024


Precio de entrada

0.01 /Mtoken(entrada)


Tamaños de contexto
Desconocido
Parámetros
0.567B

Prueba el modelo jugando con él.