La prochaine étape serait de connecter vos LLM avec d'autres, permettant le partage P2P. Pensez-y comme à un mini réseau d'entraînement décentralisé (privé), chaque pair améliorant son modèle de manière incrémentale en échangeant des mises à jour ou des gradients.
definikola
definikola15 oct., 04:18
How long until we have a chatgpt-like model that we get to train with our own data, able to learn from historical conversations, and we can pay for a server/run it locally (no data leakages), etc? I'd most definitely use that.
Je ne suis pas un expert dans le domaine, donc ce sont probablement des rêves utopiques, mais je suppose que c'est techniquement possible pour des modèles petits et moyens.
1,29K