Bge-multilingual-gemma2

Embeddings

BGE-Multilingual-Gemma2 è un modello di embedding multilingue basato su LLM, addestrato su un’ampia varietà di lingue e attività. Dimostra principalmente i seguenti progressi: Dati di addestramento diversificati: i dati di addestramento del modello includono un'ampia gamma di lingue tra cui inglese, cinese, giapponese, coreano, francese e altri. Inoltre, i dati comprendono una varietà di tipi di attività come recupero, classificazione e clustering. Prestazioni eccezionali: il modello mostra risultati di livello avanzato (SOTA) su benchmark multilingue come MIRACL, MTEB-pl e MTEB-fr. Raggiunge anche ottime prestazioni in altre valutazioni importanti, tra cui MTEB, C-MTEB e AIR-Bench.

Informazioni sul modello Bge-multilingual-gemma2

Pubblicato il huggingface

29/06/2024


Prezzo di input

0.01 /Mtoken(input)


Dimensioni del contesto
Sconosciuto
Parametri
0.567B

Prova il modello giocando con esso.