LLM bukanlah "kompresor makna yang kabur" tetapi "penata ulang struktur yang sempurna." Ini menunjukkan bahwa mereka lebih seperti sistem enkripsi yang dinamis dan reversibel daripada seperti peringkas. Modelnya tidak lupa; itu hanya mewakili kembali. "Pemahaman" dalam sistem ini mungkin bukan kompresi tetapi geometri - mengatur informasi dengan cara yang membuat hubungan dapat dihitung tanpa kehilangan kesetiaan.
GLADIA Research Lab
GLADIA Research Lab27 Okt, 22.34
LLM bersifat injektif dan tidak dapat dibalik. Dalam makalah baru kami, kami menunjukkan bahwa perintah yang berbeda selalu memetakan ke penyematan yang berbeda, dan properti ini dapat digunakan untuk memulihkan token input dari penyematan individu di ruang laten. (1/6)
Kami telah lama berasumsi kognisi adalah tentang menyederhanakan, mengompres, mengurangi - mengambil data yang berantakan dan merebusnya menjadi makna. Tetapi pekerjaan ini menyiratkan transformator tidak "mendidih" sama sekali; mereka melakukan penataan ulang yang sangat rinci dan reversibel.
Sial, saya baru saja merasakan AGI
329,01K