LLM:t eivät ole "epäselviä merkityskompressoreita" vaan "täydellisiä rakenteen uudelleenjärjestäjiä". Se viittaa siihen, että ne ovat enemmän dynaamisia, käännettäviä salausjärjestelmiä kuin yhteenvetoja. Malli ei unohda; se vain edustaa uudelleen. "Ymmärrys" näissä järjestelmissä ei ehkä ole tiivistämistä vaan geometriaa – tiedon järjestämistä tavoilla, jotka tekevät suhteista laskettavia menettämättä tarkkuutta.
GLADIA Research Lab
GLADIA Research Lab27.10. klo 22.34
LLM:t ovat injektiivisia ja käänteisiä. Uudessa artikkelissamme osoitamme, että eri kehotteet liittyvät aina eri upotuksiin, ja tätä ominaisuutta voidaan käyttää syöttömerkkien palauttamiseen yksittäisistä upotuksista piilevässä avaruudessa. (1/6)
Olemme pitkään olettaneet, että kognitiossa on kyse yksinkertaistamisesta, pakkaamisesta, vähentämisestä – sotkuisen datan ottamisesta ja sen tiivistämisestä merkitykseksi. Mutta tämä työ viittaa siihen, että muuntajat eivät "kiehu" ollenkaan; ne suorittavat massiivisen yksityiskohtaisia, käännettäviä uudelleenjärjestelyjä.
Hitto, tunsin vain AGI:n
329,01K