El siguiente paso sería conectar sus LLM con otros, lo que permitiría compartir P2P. Piense en ello como una mini red de capacitación descentralizada (privada), con cada par mejorando su modelo de forma incremental mediante el intercambio de actualizaciones o gradientes.
definikola
definikola15 oct, 04:18
How long until we have a chatgpt-like model that we get to train with our own data, able to learn from historical conversations, and we can pay for a server/run it locally (no data leakages), etc? I'd most definitely use that.
Sin embargo, no soy un experto en el campo, por lo que probablemente sueños utópicos, pero supongo que es técnicamente posible para modelos pequeños y medianos.
1.29K