Bge-multilingual-gemma2

Embeddings

O BGE-Multilingual-Gemma2 é um modelo de incorporação multilingue baseado em LLM. É treinado numa ampla variedade de idiomas e tarefas. O BGE-Multilingual-Gemma2 demonstra principalmente os seguintes avanços: Dados de treino diversificados: Os dados de treino do modelo abrangem uma vasta gama de idiomas, incluindo inglês, chinês, japonês, coreano, francês, entre outros. Além disso, os dados incluem diversos tipos de tarefas, como a recuperação, a classificação e o agrupamento. Desempenho excecional: O modelo apresenta resultados de última geração (SOTA) em benchmarks multilingues como o MIRACL, MTEB-pl e MTEB-fr. Também apresenta um excelente desempenho noutras avaliações importantes, incluindo MTEB, C-MTEB e AIR-Bench.

Sobre o modelo Bge-multilingual-gemma2

Publicado em huggingface

29/06/2024


Preço de entrada

0.01 /Mtoken(entrada)


Comprimento máximo da sequência
8192 tokens
Tamanho máximo do lote
25 samples
Dimensões de saída
3584 dimensions
Parâmetros
0.567B

Experimente o modelo brincando com ele.