Bge-multilingual-gemma2

Embeddings

BGE-Multilingual-Gemma2 ist ein LLM-basiertes mehrsprachiges Embedding-Modell. Es ist für eine Vielzahl von Sprachen und Aufgaben trainiert. BGE-Multilingual-Gemma2 punktet hauptsächlich mit folgenden Fortschritten: Vielfältige Trainingsdaten: Die Trainingsdaten des Modells umfassen eine breite Palette von Sprachen, darunter Englisch, Chinesisch, Japanisch, Koreanisch, Französisch und mehr. Darüber hinaus decken die Daten eine Vielzahl von Aufgabentypen ab, z. B. Abruf, Klassifikation und Clustering. Herausragende Leistung: Das Modell zeigt SOTA-Ergebnisse (State-of-the-Art) bei mehrsprachigen Benchmarks wie MIRACL, MTEB-pl und MTEB-fr. Es erzielt auch eine hervorragende Leistung bei anderen wichtigen Bewertungen, einschließlich MTEB, C-MTEB und AIR-Bench.

Über das Bge-multilingual-gemma2 Modell

Veröffentlicht am huggingface

29/06/2024


Eingabepreis

0.01 /Mtoken(Eingabe)


Kontextgrößen
Unbekannt
Parameter
0.567B

Testen Sie das Modell, indem Sie damit spielen.