Ny innebyggingsmodell reduserer vektor-DB-kostnadene med ~200x. Den oppretter innebygginger med full dokumentkontekst, i motsetning til tradisjonelle modeller som genererer dem uavhengig for hver del. Den overgår også OpenAI- og Cohere-modeller. Her er en visuell forklaring:
Akshay 🚀
Akshay 🚀30. aug. 2025
En ny innebyggingsmodell reduserer vektor-DB-kostnadene med ~200x. Den overgår også OpenAI- og Cohere-modeller. La oss forstå hvordan du kan bruke den i LLM-apper (med kode):
40,39K