I dag markerer dagen Kled går inn i nytt territorium: 54 nye multimodale datasett. Siden vi startet for 4 måneder siden, har vi hatt gleden av å jobbe direkte med de beste AI-laboratoriene i Silicon Valley. Vi har hatt en plass på første rad om nøyaktig hvor AI er på vei og hva som er de viktigste forbrukerdatasettene å samle inn. Så vi er glade for å kunngjøre at i tillegg til vår bilde- og videoinnsamlingsinnsats har vi identifisert og bygget ut grensesnitt for å samle inn 54 nye multimodale datasett fra den $KLED brukerbasen. Noen eksempler inkluderer: Voice Clarity-datasett: Opplæring av kunstig intelligens til å forstå tale i støyende miljøer. Avgjørende for salgsagenter, kundeserviceroboter og transkripsjon i sanntid. OCR + kvitteringsdatasett: Millioner av ekte kvitteringer og dokumenter for å hjelpe AI med å lese håndskrift, analysere tall og låse opp automatisering for regnskap, fintech og utgiftssporing. AR/VR-interaksjonsdatasett: Brukere som navigerer i AR/VR med bevegelser + stemme. Bygger grunnlaget for romlig databehandling, spill og engasjerende AI-copiloter. Husholdningsoppgavedatasett: Korte videoklipp av hverdagslige gjøremål og verktøybruk. Viktig for robotikk, hjemmeassistenter og kroppsliggjorte AI-modeller. Vi har samlet over 20 000 trente VA-er som vil begynne å bidra til disse datasettene til vi har fullstendig foredlet innsamlingsgrensesnittene og kan sende dem til hovedappen Kled, fullt tilgjengelig for alle. Totalt sett bør dette øke vår pipeline av kjøpere betraktelig og styrke alle våre bedrifts- og AI-laboratorierelasjoner. I tillegg til å gi nye økonomiske muligheter til alle våre brukere.