预测 fMRI 大脑对自然视频刺激的反应有点悲哀,只需一些数据和几行 Python 代码就能做到这一点。 你明白我的意思吗?就像,代码是可读的,性质上很简单(对于使用 torch 等的平均变换模型也是如此)。 像 torch 和 python 这样的 API 对于 cuda 内核来说太好了,几乎去掉了一些魅力。 简单的代码调用“相当简单且非常快速的数学”+大量数据就足够了。 唯一复杂的部分是 ML 编译器及其目标架构。 这一切都是显而易见且众所周知的,这不是一种领悟或其他,我只是觉得有趣的是,预测大脑反应在 2025 年只需 500 行 Python 代码和一些数据(多亏了现代 GPU 和 ML 编译器的 Lovecraftian 复杂性被如此巧妙地隐藏起来)。
AI at Meta
AI at Meta8月11日 19:20
🏆 我们很高兴地宣布,Meta FAIR 的脑与人工智能团队在享有盛誉的 Algonauts 2025 脑建模竞赛中获得了第一名。 他们的 1B 参数模型 TRIBE(多模态脑编码器)是第一个经过训练的深度神经网络,能够预测大脑对多种刺激的反应,涵盖多个模态、皮层区域和个体。该方法结合了 Meta 的多个基础模型的预训练表示——文本(Llama 3.2)、音频(Seamless 的 Wav2Vec2-BERT)和视频(V-JEPA 2)——以预测大量(每个受试者 80 小时)与电影相关的时空 fMRI 大脑反应,这些数据由 Courtois NeuroMod 项目获取。 下载代码: 阅读论文: 了解挑战: 下载数据:
聊天只是为了澄清,我并不是说这很悲伤,因为大脑是“特别的”或其他什么,我抱怨的是 Python 看起来像是愚蠢的英语,并且不酷。 我是一名 k-复杂性/压缩/大脑是计算机的家伙,预测大脑反应是可能的,这并不让我感到震惊或悲伤,我感到悲伤的是它是用愚蠢的英语 Python 编写的,并且这很合理。
25.64K