La ce am lucrat luna trecută cu echipa $CODEC: - Cercetarea întregului sector al roboticii și a arhitecturii tehnice din perspectiva mirilor de pasăre, cu @unmoyai (ultimele evoluții, cele mai bune practici etc.) - Înțelegerea locului și a modului în care se poziționează produsul Codec în fiecare dintre ele (abordând punctele dureroase) - Ce cazuri de utilizare și narațiuni specifice deblochează acest lucru - Cel mai mare strat de valoare pentru scule și unde curge capitalul major - Compararea instrumentelor web2 și a ceea ce a dus la succesul AI szn (Virtuals & ai16z) - care sunt componentele de bază pentru a stimula activitatea dezvoltatorilor? - Volante tokenomice și utilitate Echipa a făcut o treabă grozavă cu articolele tehnice, deși încă cred că nu fac decât să explice cât de importante sunt cu adevărat sculele lor. Scopul meu este să ajut la construirea cadrelor și proceselor pentru a surprinde narațiunile mai succint, evidențiind în același timp adevăratele caracteristici pe care SDK-ul le deblochează. În prezent, încă nu există nimic nici măcar în web2 care să ofere același tip de abstractizare la care lucrează Codec. Contribuția open source este calea de urmat, iar modelele de bază de vârf, cum ar fi Issac Gr00t de la Nvidia, se construiesc deja având în vedere acest lucru, deoarece antrenamentul de date și sarcini este încă atât de devreme. Nu poți folosi șiruri de text AI pentru a antrena roboți, nu există "internetul roboticii". Fiecare dintre acești umanoizi și roboți pe care îi vedeți sunt construiți cu o arhitectură monolitică full stack, nu există transferuri pentru antrenamentul sarcinilor sau modalități de a adăuga noi componente (senzor suplimentar sau cameră în spatele capului) fără a fi nevoie să rescrieți întreaga bază de cod. În loc să construiască conducte de date și simulări pentru arhitectura monolitică singulară, ei adoptă o abordare modulară în care, în loc să construiască sarcini pentru sisteme întregi, descompune fiecare parte a robotului în componente de bază (motoare, senzori, actuatoare, ochi etc.). Ceea ce înseamnă că se poate conecta cu ușurință la orice tip de robot/umanoid, indiferent de sistemul său, și îl poate instrui să îndeplinească cerințele pe baza pieselor individuale. Similar cu ceea ce am văzut cu Eliza și Virtuals, dezvoltatorii nu au avut nevoie să-și codifice întregul cadru și au avut modele GPT cu toate plug-in-urile (twitter, flux de știri, API-uri dexscreener etc.) la îndemână. Tot ce aveau nevoie era un context personal pentru intrările agenților lor, apoi era pur și simplu o chestiune de reglare fină. Scopul pentru Codec este foarte asemănător, un hub de dezvoltare în care dezvoltatorii nu trebuie să-și facă griji cu privire la construirea propriului "motor de joc", setul de instrumente SDK este ceea ce Unreal Engine/Unity este pentru dezvoltarea jocurilor. ...