Lernen Sie unser neuestes Nano-Modell kennen: LFM2-ColBERT-350M ⚛️ Mit nur 350M Parametern ermöglicht es LFM2-ColBERT-350M, Dokumente in einer Sprache zu speichern und sie in vielen Sprachen mit hoher Genauigkeit und Inferenzgeschwindigkeiten von Modellen, die nur einen Bruchteil seiner Größe ausmachen, abzurufen. > Bester cross-lingual Retriever in der Klasse unter 500M > Übertrifft größere Modelle in Deutsch, Arabisch, Koreanisch, Spanisch, Portugiesisch, Italienisch, Französisch und Japanisch > Leistet auf Augenhöhe mit viel größeren Modellen in Englisch > Kompaktes 350M-Design bereit für großflächige und geräteinterne Abrufe > Skaliert linear mit der Batch-Größe und hält über 1K Docs/Sek. bei der Dokumentencodierung 1/n 🧵
LFM2-350M-ColBERT bietet eine Inferenzgeschwindigkeit, die mit Modellen vergleichbar ist, die 2,3X kleiner sind, während eine hohe Genauigkeit in neun Sprachen beibehalten wird. 2/n
LFM2-ColBERT-350M verwendet späte Interaktion. Die meisten Retrieval-Forschungen konzentrieren sich auf Bi-Encoder oder Re-Ranker. Späte Interaktion kombiniert die Stärken beider, indem sie die Effizienz separater Encoder beibehält und gleichzeitig die Token-Ebene Präzision wiederherstellt. > Bewahrt feinkörnige Interaktionen ohne vollständige Kreuzaufmerksamkeit > Unterstützt vorab berechnete Dokumenteinbettungen für Skalierung > Balanciert Genauigkeit und Geschwindigkeit im mehrsprachigen Retrieval 3/n
50,77K