Vad jag har jobbat med den senaste månaden med $CODEC-teamet: - Undersöka hela robotiksektorn och den tekniska arkitekturen ur ett fågelperspektiv med @unmoyai (senaste utvecklingen, bästa praxis etc.) - Förstå var och hur Codecs produkt står sig i var och en av dem (ta itu med smärtpunkterna) - Vilka specifika användningsfall och berättelser som detta låser upp - Det största värdelagret för verktygen och där det stora kapitalet flödar - Jämförelse av web2-verktyg och vad som ledde till framgången för AI szn (Virtuals & ai16z) - vilka är de viktigaste komponenterna för att få igång utvecklarnas aktivitet? - Tokenomiska svänghjul och användbarhet Teamet har gjort ett bra jobb med tekniska artiklar, även om jag fortfarande tror att de bara borstar ytan när det gäller att förklara hur viktiga deras verktyg verkligen är. Mitt mål är att hjälpa till att bygga ramverk och processer för att fånga berättelserna mer kortfattat samtidigt som jag lyfter fram de verkliga funktionerna som SDK låser upp. Som det ser ut finns det fortfarande ingenting ens i web2 som erbjuder samma typ av abstraktion som Codec arbetar mot. Bidrag med öppen källkod är vägen framåt och ledande grundmodeller som Nvidias Issac Gr00t bygger redan med detta i åtanke eftersom data- och uppgiftsträning fortfarande är så tidigt. Du kan inte använda AI-textsträngar för att träna robotar, det finns inget "internet of robotics". Var och en av dessa humanoider och robotar du ser är byggda med monolitisk arkitektur i full stack, det finns ingen överföring för uppgiftsträning eller sätt att lägga till nya komponenter (extra sensor eller kamera på baksidan av huvudet) utan att behöva skriva om hela kodbasen. Istället för att bygga datapipelines och simuleringar för en enda monolitisk arkitektur, tar de ett modulärt tillvägagångssätt där de istället för att bygga uppgifter för hela system, bryter ner varje del av roboten i kärnkomponenter (motorer, sensorer, ställdon, ögon etc.). Det betyder att den enkelt kan anslutas till vilken typ av robot/humanoid som helst, oavsett system, och instruera den att utföra krav baserat på enskilda delar. I likhet med vad vi såg med Eliza och Virtuals behövde utvecklarna inte koda hela sitt ramverk och hade GPT-modeller med alla plugin-program (twitter, nyhetsflöde, dexscreener API:er etc.) till hands. Allt de behövde var ett personligt sammanhang för sina Agents-insatser, sedan var det bara en fråga om finjustering. Målet för Codec är väldigt likt, en utvecklarhubb där utvecklare inte behöver oroa sig för att bygga sin egen "spelmotor", SDK-verktygslådan är vad Unreal Engine/Unity är för spelutveckling. ...