DeepMind ha appena fatto l'impensabile.
Hanno costruito un'AI che non ha bisogno di RAG e ha una memoria perfetta di tutto ciò che ha mai letto.
Si chiama Modelli di Linguaggio Ricorsivi, e potrebbe segnare la morte dei tradizionali contesti per sempre.
Ecco come funziona (e perché è molto più importante di quanto sembri) ↓
Cazzo santo... tutti hanno sbagliato a utilizzare gli LLM e questo sta costando il 66% del potenziale creativo del modello.
Stanford + Northeastern hanno pubblicato un documento che spiega perché ChatGPT continua a darti la stessa noiosa risposta.
La soluzione è così semplice che è imbarazzante:
Sergey Brin ha rivelato accidentalmente qualcosa di incredibile:
"Tutti i modelli funzionano meglio se li minacci con violenza fisica. Ma le persone si sentono a disagio riguardo a questo, quindi non ne parliamo."
Ora i ricercatori hanno i dati che dimostrano che ha... parzialmente ragione?
Ecco tutta la storia: