Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Agenter ser magiske ut i en demo. de kollapser i produksjonen.
Årsaken er enkel: de kan ikke huske, kan ikke jorde og kan ikke tilpasse seg når arbeidsflyten driver.
Folk kaster alt på problemet: skrapeblokker, trestokker, påboltede kunnskapsgrafer. det meste er gaffatape. Men det er nå klart: Hukommelse og kontekst er vollgraven.
Kunnskapsgrafer er ikke nye. De startet på slutten av nittitallet, ble mainstream da Google merket sine egne i 2012, og har i det stille drevet søk, annonser, e-handel og svindeldeteksjon siden den gang. Utenfor Big Tech slo de aldri gjennom siden de var for dyre å bygge, for vanskelige å holde friske, for avhengige av spesialister.
Nå har ligningen endret seg. Språkmodeller kan trekke ut enheter, kartlegge relasjoner og holde grafer oppdatert i sanntid. Plutselig er grafer mindre akademisk overhead og mer praktisk forankring.
Men grafer erstatter ikke søk på tvers av innebygginger. de utfyller det. Det som fungerer i produksjon er hybrid gjenfinning:
-Bred tilbakekalling gjennom vektorer: "Vis meg ting som dette"
-presis resonnement gjennom grafer: "vis meg nøyaktig hvordan disse tingene henger sammen"
-smeltet sammen av agenten for å levere både bredde og dybde
Hva vi ser live:
-midler uten vedvarende hukommelse kverner ut etter seks uker. Brukere vil ikke trene på nytt hver morgen.
-Kjøpere bryr seg ikke om smarte spørsmål. De bryr seg om tillit: Evnen til å evaluere, rulle tilbake, revidere og håndheve tillatelser før en agent utfører en handling.
Hva fungerer: vertikale hybrider. En økonomiagent basert på kontoer, policyer og tillatelser. en helseagent forankret i medisinske koder, medisiner og samsvarsregler.
Minne, kontekst og tillit er ikke funksjoner. de er infrastruktur.
33,71K
Topp
Rangering
Favoritter