Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Lernen Sie unser neuestes Nano-Modell kennen: LFM2-ColBERT-350M ⚛️
Mit nur 350M Parametern ermöglicht es LFM2-ColBERT-350M, Dokumente in einer Sprache zu speichern und sie in vielen Sprachen mit hoher Genauigkeit und Inferenzgeschwindigkeiten von Modellen, die nur einen Bruchteil seiner Größe ausmachen, abzurufen.
> Bester cross-lingual Retriever in der Klasse unter 500M
> Übertrifft größere Modelle in Deutsch, Arabisch, Koreanisch, Spanisch, Portugiesisch, Italienisch, Französisch und Japanisch
> Leistet auf Augenhöhe mit viel größeren Modellen in Englisch
> Kompaktes 350M-Design bereit für großflächige und geräteinterne Abrufe
> Skaliert linear mit der Batch-Größe und hält über 1K Docs/Sek. bei der Dokumentencodierung
1/n 🧵

LFM2-350M-ColBERT bietet eine Inferenzgeschwindigkeit, die mit Modellen vergleichbar ist, die 2,3X kleiner sind, während eine hohe Genauigkeit in neun Sprachen beibehalten wird.
2/n

LFM2-ColBERT-350M verwendet späte Interaktion.
Die meisten Retrieval-Forschungen konzentrieren sich auf Bi-Encoder oder Re-Ranker. Späte Interaktion kombiniert die Stärken beider, indem sie die Effizienz separater Encoder beibehält und gleichzeitig die Token-Ebene Präzision wiederherstellt.
> Bewahrt feinkörnige Interaktionen ohne vollständige Kreuzaufmerksamkeit
> Unterstützt vorab berechnete Dokumenteinbettungen für Skalierung
> Balanciert Genauigkeit und Geschwindigkeit im mehrsprachigen Retrieval
3/n

50,77K
Top
Ranking
Favoriten

