Agenten sehen in einer Demo magisch aus. In der Produktion fallen sie auseinander. der Grund ist einfach: Sie können sich nicht erinnern, können nicht verankern und können sich nicht anpassen, wenn der Workflow abdriftet. Die Leute werfen alles auf das Problem: Notizblöcke, Baumprotokolle, angeheftete Wissensgraphen. Das meiste davon ist Klebeband. Aber es ist jetzt klar: Gedächtnis und Kontext sind der Graben. Wissensgraphen sind nicht neu. Sie begannen in den späten Neunzigern, wurden mainstream, als Google 2012 seine eigene Marke einführte, und haben seitdem leise Suche, Werbung, E-Commerce und Betrugserkennung angetrieben. Außerhalb der großen Tech-Unternehmen haben sie nie durchgebrochen, da sie zu teuer zu bauen, zu schwer frisch zu halten und zu abhängig von Spezialisten waren. Jetzt hat sich die Gleichung geändert. Sprachmodelle können Entitäten extrahieren, Beziehungen abbilden und Graphen in Echtzeit aktualisieren. Plötzlich sind Graphen weniger akademische Belastung und mehr praktische Verankerung. Aber Graphen ersetzen nicht die Suche über Einbettungen. Sie ergänzen sie. Was in der Produktion funktioniert, ist hybride Abruf: -breite Rückruf durch Vektoren: „Zeig mir Dinge wie diese“ -präzises Denken durch Graphen: „Zeig mir genau, wie diese Dinge verbunden sind“ -verschmolzen vom Agenten, um sowohl Breite als auch Tiefe zu liefern. Was wir live sehen: -Agenten ohne persistentes Gedächtnis fallen nach sechs Wochen aus. Benutzer werden nicht jeden Morgen neu trainieren. -Käufer interessieren sich nicht für clevere Eingabeaufforderungen. Sie interessieren sich für Vertrauen: die Fähigkeit zu bewerten, zurückzurollen, zu prüfen und Berechtigungen durchzusetzen, bevor ein Agent eine Aktion ausführt. Was funktioniert: vertikale Hybride. Ein Finanzagent, der in Konten, Richtlinien und Berechtigungen verankert ist. Ein Gesundheitsagent, der in medizinischen Codes, Medikamenten und Compliance-Regeln verankert ist. Gedächtnis, Kontext und Vertrauen sind keine Funktionen. Sie sind Infrastruktur.
41,4K