Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Hiten Shah
Appena terminata una chiamata con un fondatore che pensava di essere in ritardo. Non lo era.
Era esattamente dove doveva essere: nel bel mezzo di problemi che costringono a un tipo di apprendimento che non puoi comprare, solo guadagnare.
Ogni fondatore si sente in ritardo a un certo punto. In ritardo rispetto ai concorrenti che sembrano più avanti. In ritardo rispetto agli investitori che pongono domande impossibili. In ritardo rispetto ai pari che sembrano avere tutto sotto controllo.
Ma la verità è che essere in ritardo di solito significa che stai finalmente affrontando la realtà. Questo è il vero curriculum delle startup.
Non impari a fare prezzi leggendo un post sul blog. Impari quando un cliente dice: “È troppo costoso,” e riattacca.
Non impari a assumere ascoltando un podcast. Impari quando la prima persona che hai assunto si rivela essere quella sbagliata e devi lasciarla andare.
Non impari a guidare citando libri. Impari quando il tuo team ti guarda in un momento di dubbio e aspetta che tu decida.
Nessuna di queste esperienze è piacevole. Sembra di essere in ritardo. Ma queste sono le ripetizioni. Questa è la retta.
I fondatori che ce la fanno sopravvivono più a lungo nell'arena dei problemi. Ogni conversazione difficile, ogni affare perso, ogni momento di “dovremmo essere più avanti” fa parte del vero progresso.
Se sei un fondatore e ti senti in ritardo, ricorda: non sei in ritardo. Stai imparando nell'unico modo che conta.
2,05K
Quando è arrivato ChatGPT, ha ridefinito il concetto di intelligenza.
Per decenni, l'intelligenza significava risolvere problemi difficili o immagazzinare conoscenze. Test di IQ, SAT, scacchi. Ma ChatGPT mostra qualcosa di diverso: l'intelligenza come interazione. Non conosce nel senso umano. Genera risposte su richiesta. Eppure l'esperienza sembra intelligente perché è reattiva, contestuale e utile nel momento.
Questo è il cambiamento. L'intelligenza non riguarda più ciò che è immagazzinato, ma ciò che può essere portato alla luce quando necessario. La capacità di sintetizzare tra miliardi di esempi e fornire qualcosa di coerente, istantaneamente.
È facile chiamare tutto questo "falso". Ma guarda più da vicino. La maggior parte di ciò che etichettiamo come intelligenza umana, come scrivere un saggio, rispondere a una domanda o persino dare consigli, è performance.
È giudicata dall'output, non dal mistero di come il cervello lo produca. ChatGPT ha semplicemente esposto questo fatto.
Il pericolo è aggrapparsi a schemi di valutazione obsoleti. Se definiamo l'intelligenza solo come memoria o capacità di fare test, le macchine hanno già "vinto". Ma se la definiamo come giudizio, gusto e valori (la capacità umana di scegliere ciò che conta), allora ChatGPT non sta sostituendo gli esseri umani.
Ci sta ricordando cos'è davvero l'intelligenza.
2,57K
Hiten Shah ha ripubblicato
Esempio divertente di come Google sia molto meglio di ChatGPT per le query informative
Ho chiesto a entrambi:
"Di quale ristorante parlava il saggio di John McPhee 'Brigade de Cuisine'?
Google me l'ha detto immediatamente. OpenAI mi ha mentito ripetutamente. Quando l'ho chiamato bugiardo, alla fine mi ha detto




28K
Hiten Shah ha ripubblicato
gli agenti sembrano magici in una demo. collassano in produzione.
la ragione è semplice: non possono ricordare, non possono ancorarsi e non possono adattarsi quando il flusso di lavoro si discosta.
le persone stanno cercando di risolvere il problema in ogni modo: taccuini, tronchi d'albero, grafi di conoscenza aggiunti. la maggior parte è nastro adesivo. ma ora è chiaro: memoria e contesto sono il fossato.
i grafi di conoscenza non sono una novità. sono iniziati alla fine degli anni '90, sono diventati mainstream quando Google ha marchiato il proprio nel 2012 e hanno silenziosamente alimentato ricerca, pubblicità, e-commerce e rilevamento delle frodi da allora. al di fuori delle grandi aziende tecnologiche, non hanno mai sfondato poiché erano troppo costosi da costruire, troppo difficili da mantenere aggiornati, troppo dipendenti da specialisti.
ora l'equazione è cambiata. i modelli linguistici possono estrarre entità, mappare relazioni e mantenere i grafi aggiornati in tempo reale. all'improvviso, i grafi sono meno un onere accademico e più un ancoraggio pratico.
ma i grafi non sostituiscono la ricerca attraverso gli embedding. la completano. ciò che funziona in produzione è il recupero ibrido:
-ampia richiamo attraverso vettori: “mostrami cose simili a questa”
-razionamento preciso attraverso grafi: “mostrami esattamente come si collegano queste cose”
-fusi dall'agente per fornire sia ampiezza che profondità
ciò che stiamo vedendo dal vivo:
-agenti senza memoria persistente si esauriscono dopo sei settimane. gli utenti non si riaddestreranno ogni mattina.
-gli acquirenti non si preoccupano di suggerimenti intelligenti. si preoccupano di fiducia: la capacità di valutare, di tornare indietro, di auditare e di far rispettare le autorizzazioni prima che un agente prenda un'azione.
ciò che funziona: ibridi verticali. un agente finanziario ancorato in conti, politiche e autorizzazioni. un agente sanitario ancorato in codici medici, farmaci e regole di conformità.
memoria, contesto e fiducia non sono funzionalità. sono infrastruttura.
19,83K
Principali
Ranking
Preferiti
On-chain di tendenza
Di tendenza su X
Principali fondi recenti
Più popolari