En konventionell berättelse du kan stöta på är att AI har kommit för långt för att en ny, forskningsfokuserad startup ska kunna konkurrera ut och genomföra AI:s etablerade aktörer. Det är precis den känslan jag ofta hörde när OpenAI startade ("hur skulle några av er kunna konkurrera med Google?") och 1) det var väldigt fel, och sedan 2) det var väldigt fel igen med en helt ny omgång startups som nu utmanar OpenAI i sin tur, och enligt mig är det fortfarande fel idag. Att skala upp och lokalt förbättra det som fungerar kommer att fortsätta skapa otroliga framsteg, men med så mycket framsteg som låses upp så snabbt, med så mycket damm som kastas upp i luften i processen, och med fortfarande ett stort gap mellan gränsöverskridande LLM:er och exemplet på magin i ett sinne som körs på 20 watt, känns sannolikheten för forskningsgenombrott som ger närmare 10X förbättringar (istället för 10%) enligt mig fortfarande mycket hög – mycket gott om Hög att fortsätta satsa på och leta efter. Den knepiga delen är förstås att skapa förutsättningar där sådana genombrott kan upptäckas. Jag tror att en sådan miljö sällan kommer samman, men @bfspector och @amspector100 är briljanta, med (sällsynt) fullstackförståelse av LLM:er från topp (matematik/algoritmer) till botten (megakärnor/relaterade), de har ett utmärkt öga för talanger och jag tror att de kommer kunna bygga något mycket speciellt. Grattis till lanseringen och jag ser fram emot vad du kommer fram till!