Ventura Labs Ep. 57 - Christopher Subia-Waud Christopher (@wanderinweights) ist der Hauptbeitragende zu Gradients (@gradients_ai) Zeitstempel 01:11 - Einführung 02:05 - Erster Kontakt mit Bittensor 04:51 - Verifizierungsproblem von Subnetz 19 05:14 - Überprüfungen der nächsten Token-Wahrscheinlichkeit 07:44 - Verifizierung von Bildern vs. Text (Diffusionsnuancen) 08:33 - Wie Bittensor seine Sichtweise verändert hat 12:13 - NeurIPS-Referenzen vs. Auswirkungen in der realen Welt 14:00 - Warum Bittensor schneller ist als die Akademie 15:51 - Überblick über Gradients (Subnetz 56) 18:14 - Abgedeckte Aufgaben: Instruct, DPO, GRPO, Diffusion 20:34 - Winner-take-all Anreize & Emissionsdesign 22:37 - Hyperparameter und Suchraum 26:04 - Benchmarks vs. HF/Databricks/GCP/Together 31:10 - Bestperformende Größen (7B–8B) 33:23 - Iteratives Training auf großen Datensätzen 35:18 - Modellfusion vs. sequenzieller Ansatz 36:09 - Kundennachfrage 38:20 - Gradients 5.0: Open-Source-Turnier 43:29 - Größte Überraschung beim Open-Sourcing 47:59 - Anziehen und Halten von Top-Minern 50:20 - Miner-Geschichten und den Hobbygeist bewahren 52:57 - Rayon Labs Partnerschaft (Chutes + Gradients) 55:53 - Gedeihen unter dTAO; Emissionswachstum und warum 58:01 - Bittensor-geeignete Probleme in der Zukunft 01:00:36 - Aufbauen in Richtung "beste KI" 01:04:58 - Risiken von eingebetteten Anzeigen in Modellausgaben 01:07:30 - Ratschläge an KI-Entwickler, die skeptisch gegenüber Krypto sind
21,22K