新しい論文 📢 最も強力な視覚言語 (VL) 推論データセットは依然として独自のま🔒まであり、その原理を研究し、同様に効果的なデータセットをオープン🔓に開発する取り組みを妨げています。 そこで、入念なデータキュレーションによって作成された2.5MのサンプルデータセットであるHoneyBeeを紹介します。モデルスケール全体でInternVL2.5/3-InstructおよびQwen2.5-VL-Instructを上回るVLM推論器をトレーニングします(たとえば、3BスケールでQwenVLよりもMathVerseが8%向上)。🧵👇 @AIatMetaでのインターンシップ中に行われた仕事は、@ramakanth1729、@Devendr06654102、@scottyih、@gargighosh、@adityagrover_、@kaiwei_changといました🤝。