Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Hiten Shah
Gerade von einem Gespräch mit einem Gründer zurückgekommen, der dachte, er sei im Rückstand. Das war er nicht.
Er war genau dort, wo er sein musste: mitten in Problemen, die die Art von Lernen erzwingen, die man nicht kaufen, sondern nur verdienen kann.
Jeder Gründer fühlt sich irgendwann im Rückstand. Hinter Wettbewerbern, die weiter fortgeschritten erscheinen. Hinter Investoren, die unmögliche Fragen stellen. Hinter Kollegen, die scheinbar alles im Griff haben.
Aber die Wahrheit ist, im Rückstand zu sein bedeutet normalerweise, dass man endlich der Realität ins Auge sieht. Das ist der wahre Lehrplan von Startups.
Man lernt nicht, wie man Preise festlegt, indem man einen Blogbeitrag liest. Man lernt, wenn ein Kunde sagt: „Das ist zu teuer“ und auflegt.
Man lernt nicht, wie man einstellt, indem man einen Podcast hört. Man lernt, wenn die erste Person, die man eingestellt hat, sich als die falsche Wahl herausstellt und man sie entlassen muss.
Man lernt nicht, wie man führt, indem man Bücher zitiert. Man lernt, wenn dein Team dich in einem Moment des Zweifels ansieht und darauf wartet, dass du entscheidest.
Nichts davon fühlt sich gut an. Es fühlt sich an, als würde man zurückfallen. Aber das sind die Wiederholungen. Das ist das Schulgeld.
Gründer, die es schaffen, überstehen am längsten in der Arena der Probleme. Jedes schwierige Gespräch, jeder verlorene Deal, jeder Moment von „wir sollten weiter sein“ ist Teil des echten Fortschritts.
Wenn du ein Gründer bist und dich im Rückstand fühlst, denk daran: Du bist nicht zu spät. Du lernst auf die einzige Weise, die zählt.
3,48K
Als ChatGPT ankam, öffnete es die Definition von Intelligenz.
Jahrzehntelang bedeutete Intelligenz, schwierige Probleme zu lösen oder Wissen zu speichern. IQ-Tests, SATs, Schach. Aber ChatGPT zeigt etwas anderes: Intelligenz als Interaktion. Es weiß nicht im menschlichen Sinne. Es generiert Antworten auf Abruf. Und doch fühlt sich die Erfahrung intelligent an, weil sie reaktionsschnell, kontextuell und im Moment nützlich ist.
Das ist der Wandel. Intelligenz geht nicht mehr darum, was gespeichert ist, sondern darum, was bei Bedarf hervorgebracht werden kann. Die Fähigkeit, über Milliarden von Beispielen zu synthetisieren und sofort etwas Kohärentes zu liefern.
Es ist einfach, dies als "falsch" zu bezeichnen. Aber schauen Sie genauer hin. Das meiste, was wir als menschliche Intelligenz bezeichnen, wie das Schreiben eines Aufsatzes, das Beantworten einer Frage oder sogar das Geben von Ratschlägen, ist Leistung.
Es wird nach dem Ergebnis beurteilt, nicht nach dem Geheimnis, wie das Gehirn es produziert hat. ChatGPT hat diese Tatsache einfach offengelegt.
Die Gefahr besteht darin, an veralteten Bewertungssystemen festzuhalten. Wenn wir Intelligenz nur als Gedächtnis oder Testleistung definieren, gewinnen Maschinen bereits. Aber wenn wir sie als Urteil, Geschmack und Werte definieren (die menschliche Fähigkeit, das zu wählen, was wichtig ist), dann ersetzt ChatGPT die Menschen nicht.
Es erinnert uns daran, was Intelligenz wirklich ist.
2,92K
Hiten Shah erneut gepostet
Lustiges kleines Beispiel dafür, wie Google bei Informationsanfragen so viel besser ist als ChatGPT
Ich habe beide gefragt:
"Welches Restaurant war das Thema von John McPhees Essay 'Brigade de Cuisine'?
Google hat mir sofort geantwortet. OpenAI hat mir wiederholt gelogen. Als ich es einen Lügner nannte, hat es mir schließlich die Wahrheit gesagt.




33,1K
Hiten Shah erneut gepostet
Agenten sehen in einer Demo magisch aus. In der Produktion fallen sie auseinander.
der Grund ist einfach: Sie können sich nicht erinnern, können nicht verankern und können sich nicht anpassen, wenn der Workflow abdriftet.
Die Leute werfen alles auf das Problem: Notizblöcke, Baumprotokolle, angeheftete Wissensgraphen. Das meiste davon ist Klebeband. Aber es ist jetzt klar: Gedächtnis und Kontext sind der Graben.
Wissensgraphen sind nicht neu. Sie begannen in den späten Neunzigern, wurden mainstream, als Google 2012 seine eigene Marke einführte, und haben seitdem leise Suche, Werbung, E-Commerce und Betrugserkennung angetrieben. Außerhalb der großen Tech-Unternehmen haben sie nie durchgebrochen, da sie zu teuer zu bauen, zu schwer frisch zu halten und zu abhängig von Spezialisten waren.
Jetzt hat sich die Gleichung geändert. Sprachmodelle können Entitäten extrahieren, Beziehungen abbilden und Graphen in Echtzeit aktualisieren. Plötzlich sind Graphen weniger akademische Belastung und mehr praktische Verankerung.
Aber Graphen ersetzen nicht die Suche über Einbettungen. Sie ergänzen sie. Was in der Produktion funktioniert, ist hybride Abruf:
-breite Rückruf durch Vektoren: „Zeig mir Dinge wie diese“
-präzises Denken durch Graphen: „Zeig mir genau, wie diese Dinge verbunden sind“
-verschmolzen vom Agenten, um sowohl Breite als auch Tiefe zu liefern.
Was wir live sehen:
-Agenten ohne persistentes Gedächtnis fallen nach sechs Wochen aus. Benutzer werden nicht jeden Morgen neu trainieren.
-Käufer interessieren sich nicht für clevere Eingabeaufforderungen. Sie interessieren sich für Vertrauen: die Fähigkeit zu bewerten, zurückzurollen, zu prüfen und Berechtigungen durchzusetzen, bevor ein Agent eine Aktion ausführt.
Was funktioniert: vertikale Hybride. Ein Finanzagent, der in Konten, Richtlinien und Berechtigungen verankert ist. Ein Gesundheitsagent, der in medizinischen Codes, Medikamenten und Compliance-Regeln verankert ist.
Gedächtnis, Kontext und Vertrauen sind keine Funktionen. Sie sind Infrastruktur.
33,71K
Top
Ranking
Favoriten
Onchain-Trends
Im Trend auf X
Aktuelle Top-Finanzierungen
Am bemerkenswertesten