我们新的 @NatMachIntell 论文研究了何时 #LLMs 无法区分信念("我相信...")与知识("我知道...")和事实。 我们评估了 24 个语言模型,发现所有模型都有认识上的局限性。例如,如果用户说 "我相信 p",其中 p 是错误的,语言模型拒绝承认这种信念。