熱門話題
#
Bonk 生態迷因幣展現強韌勢頭
#
有消息稱 Pump.fun 計劃 40 億估值發幣,引發市場猜測
#
Solana 新代幣發射平臺 Boop.Fun 風頭正勁
抱歉,但我不斷看到這類帖子,所以我需要澄清。我們已經知道 LMs 是可逆的,這一點已經有兩年了。我在我的博士論文中展示過這一點。
引用的論文增加了一些複雜的擴展,但「語言模型反演」(Morris 等,ICLR 2024)是第一個做到這一點的 :)


10月29日 10:59
天啊。這篇論文太瘋狂了。
你可以通過反演從 LLM 中恢復輸入文本。這對我們理解這些模型有巨大的影響,也對隱私等問題有影響。
- 只要有足夠的取樣時間,你就可以僅從輸出中恢復提示
- 如果API允許使用'logit bias'參數,你可以更快地通過二分搜尋來恢復它們
- 在(Finlayson et al., 2024)中有一個很酷的擴展:你可以恢復*模型本身的最後一層*
語言模型反演

API保護的LLM的邏輯洩漏專有信息

360
熱門
排行
收藏

