Я ожидал, что это произойдет: OpenAI объявила, что они разработали высокопроизводительные мини-версии GPT-4, которые будут работать локально на ноутбуке или телефоне. Это перенесет много вычислений с дата-центров на наши локальные машины. Когда модель не может ответить на вопрос локально, она может сказать: "подождите минутку, пока я проконсультируюсь с коллективным разумом..." или что-то в этом роде и выполнить вычисления в облаке. Большой вопрос для нас, кто работает в области электроэнергии и дата-центров: как это повлияет на тенденции строительства дата-центров, их потребность в электроэнергии и места, где они могут/хотят строить? Моя гипотеза: это уменьшит спрос на вычисления в централизованных дата-центрах, одновременно увеличивая степень задержки, с которой могут справляться дата-центры (поскольку задачи, требующие низкой задержки, будут выполняться локально).
Sam Altman
Sam Altman6 авг., 01:03
gpt-oss вышел! мы создали открытую модель, которая работает на уровне o4-mini и запускается на высококлассном ноутбуке (ЧТО ЗА ЧЕРТ!!) (и меньшая версия, которая работает на телефоне). очень горжусь командой; это большая победа технологии.
137,45K