跳转至主要内容
行情
扫链
追踪
信号
牛人榜
兑换
资产
邀请计划
更多
产品
DeFi
市场
洞察中心
Eco Hub
安全中心
开发者中心
Wallet API
探索 Wallet API
API 文档
API Key 管理
区块链浏览器
X Layer
探索 X Layer
X Layer 浏览器
跨链桥
开发者文档
测试网水龙头
GitHub
DApp 连接钱包
Boost
X Launch
参与 X Launch,抢先赚新币
Giveaway
完成指定任务,领取空投好礼
交易赛
交易热门代币,冲榜赢大奖
奖励中心
领取奖励和空投
预警
语言
货币
下载 OKX Wallet
Web3 指南
公告
返回
简体中文
繁體中文
English
Tiếng Việt
Русский
Español (Latinoamérica)
Bahasa Indonesia
Français
Deutsch
Italiano
Polski
Čeština
Română
Português (Portugal)
Português (Brasil)
Українська
Español (España)
Nederlands
العربية
日本語
Norsk (bokmål)
Suomi
Svenska
返回
返回
使用教程
学院
帮助中心
发现功能使用指南
热门话题
#
Bonk 生态迷因币展现强韧势头
Hosico
-7.16%
USELESS
-15.11%
IKUN
-17.27%
gib
-12.51%
#
有消息称 Pump.fun 计划 40 亿估值发币,引发市场猜测
Bonk
-5.29%
ALON
-16.79%
LAUNCHCOIN
-36.02%
GOONC
-6.88%
KLED
-5.83%
#
Solana 新代币发射平台 Boop.Fun 风头正劲
BOOP
+0.02%
Boopa
-8.51%
PORK
-8.02%
主页
Jack Morris
博士研究@cornell // 语言模型、信息论、人工智能科学
查看原文
Jack Morris
17 小时前
有人告诉我我在这里错过了什么,因为这个标题的说法在我看来似乎是显而易见的错误: 他们将 LLM 定义为一个将 V^k 中的序列 s 映射到 R^d 中的向量的函数。 假设隐藏状态为 n 位精度。在某个时刻,可能的输入数量超过了隐藏状态的数量: |V|^k > 2^{n * d} k > n d log(2) / log |V| 让我们以 GPT-2 为例:n=16,d=768,V≈50,000。 那么从 214 个标记的上下文窗口大小开始,碰撞 *必须* 发生。 这似乎实际上有点糟糕,对吧?
GLADIA Research Lab
10月27日 22:34
LLMs 是单射且可逆的。 在我们的新论文中,我们展示了不同的提示总是映射到不同的嵌入,这一特性可以用来从潜在空间中的单个嵌入中恢复输入标记。 (1/6)
72.48K
385
Jack Morris
10月30日 02:53
这篇文章完全是错误的信息 LLMs 是有损压缩器!用于 *训练数据*。 LLMs 无损压缩 *提示*,内部处理。这就是这篇论文所展示的。 来源:我是“语言模型反演”的作者,这篇原始论文的作者。
Garry Tan
10月29日 13:46
大型语言模型(LLMs)并不是“模糊的意义压缩器”,而是“完美的结构重组器”。这表明它们更像是动态的、可逆的加密系统,而不是摘要工具。 模型并不会忘记;它只是重新表示。 在这些系统中,“理解”可能不是压缩,而是几何——以使关系可计算的方式组织信息,而不失真。
350.88K
4.03K
热门
排行
收藏