Oggi segna il giorno in cui Kled entra in un nuovo territorio: 54 nuovi dataset multimodali. Da quando abbiamo iniziato 4 mesi fa, abbiamo avuto il piacere di lavorare direttamente con i migliori laboratori di intelligenza artificiale nella Silicon Valley. Abbiamo avuto un posto in prima fila per vedere esattamente dove sta andando l'IA e quali sono i dataset per i consumatori più importanti da raccogliere. Siamo quindi lieti di annunciare che, oltre ai nostri sforzi di raccolta di immagini e video, abbiamo identificato e costruito interfacce per raccogliere 54 nuovi dataset multimodali dalla base utenti di $KLED. Alcuni esempi includono: Dataset di Chiarezza Vocale: Addestrare l'IA a comprendere il parlato in ambienti rumorosi. Cruciale per gli agenti di vendita, i bot di assistenza clienti e la trascrizione in tempo reale. Dataset OCR + Ricevute: Milioni di ricevute e documenti reali per aiutare l'IA a leggere la scrittura a mano, analizzare i numeri e sbloccare l'automazione per contabilità, fintech e monitoraggio delle spese. Dataset di Interazione AR/VR: Utenti che navigano in AR/VR con gesti + voce. Costruire le basi per il calcolo spaziale, i giochi e i copiloti IA immersivi. Dataset di Compiti Domestici: Brevi clip video di faccende quotidiane e utilizzo di strumenti. Essenziale per la robotica, gli assistenti domestici e i modelli di IA incarnata. Abbiamo accumulato oltre 20.000 VA addestrati che inizieranno a contribuire a questi dataset fino a quando non avremo completamente affinato le interfacce di raccolta e potremo spingerle all'app principale di Kled, completamente accessibile a chiunque. In generale, questo dovrebbe aumentare notevolmente il nostro pipeline di acquirenti e rafforzare tutte le nostre relazioni con le imprese e i laboratori di IA. Così come fornire nuove opportunità monetarie a tutti i nostri utenti.