Sono stato curioso di sapere quali informazioni gli LLM "dimenticano" durante il RL. Recentemente ho passato del tempo a esaminare ricerche per esempi di cose in cui i modelli peggiorano dopo il RL. Si scopre che imparare a ragionare rende i modelli migliori in praticamente tutto. È una realizzazione spaventosa, a dire il vero.