Bge-multilingual-gemma2

Embeddings

BGE-Multilingual-Gemma2 to wielojęzyczny model osadzania oparty na dużym modelu językowym (LLM). Jest trenowany na różnorodnych językach i zadaniach. BGE-Multilingual-Gemma2 przede wszystkim wykazuje następujące zalety: Różnorodne dane treningowe: Dane użyte do treningu obejmują szeroki zakres języków, w tym angielski, chiński, japoński, koreański, francuski i inne. Ponadto w ramach treningu wykonywano różne typy zadań, takie jak wyszukiwanie informacji, klasyfikacja i grupowanie (klastering). Bardzo duża wydajność: Model osiąga doskonałe wyniki w wielojęzycznych testach porównawczych, takich jak MIRACL, MTEB-pl i MTEB-fr, a także w innych kluczowych ewaluacjach, w tym MTEB, C-MTEB i AIR-Bench.

O modelu Bge-multilingual-gemma2

Opublikowano huggingface

29/06/2024


Cena wejściowa

0.01 /Mtoken(wejście)


Rozmiary kontekstu
Nieznane
Parametry
0.567B

Wypróbuj model, bawiąc się nim.