Jeg foretrakk å bruke forvirring fordi de så ut til å ha løst problemet med hallusinasjoner. Vel, ikke nå lenger: Forvirring begynte å finne på kilder som ikke eksisterer. Hallusinasjoner ser ut til å være noe som alltid forblir med LLM-er og LLM-produkter ... stol aldri helt på LLM-er
Hørte fra Perplexity-teamet at dette problemet var takket være en modellmigrering de ikke evaluerte godt Og hvordan de fremover vil være strenge på å kjøre evals-suiten sin for å fange opp ting som dette Kommer for å vise hvordan evals blir viktigere for å teste LLM-apper!
53,98K