Bge-multilingual-gemma2

Embeddings

BGE-Multilingual-Gemma2 is een op LLM gebaseerd meertalig embeddingmodel. Het is getraind op een diverse talen en taken. BGE-Multilingual-Gemma2 toont voornamelijk de volgende vooruitgangen aan: Diverse trainingsdata: De trainingsdata van het model beslaat een breed scala aan talen, waaronder Engels, Chinees, Japans, Koreaans, Frans. Bovendien dekt de data een verscheidenheid aan taaktypes, zoals retrieval, classificatie en clustering. Uitstekende prestaties: Het model vertoont state-of-the-art (SOTA) resultaten op meertalige benchmarks zoals MIRACL, MTEB-pl en MTEB-fr. Het behaalt ook uitstekende prestaties op andere belangrijke evaluaties, waaronder MTEB, C-MTEB en AIR-Bench.

Over Bge-multilingual-gemma2 model

Gepubliceerd op huggingface

29/06/2024


Ingangsprijs

0.01 /Mtoken(invoer)


Contextgroottes
Onbekend
Parameters
0.567B

Probeer het model uit door ermee te spelen.