Я очікував, що це станеться: OpenAI оголосила, що розробила високопродуктивну міні-версію GPT-o4, яка працюватиме локально на ноутбуці чи телефоні. Це перенесе багато висновків з центрів обробки даних на наші локальні машини. Коли модель не може відповісти на запитання локально, вона може сказати: «Зачекайте лише одну мить, поки я пораджуся з розумом вулика...» або що завгодно робити висновки в хмарі. Велике питання для тих з нас, хто працює у світі електроенергетики та центрів обробки даних: як це вплине на тенденції будівництва центрів обробки даних, їхній попит на електроенергію та місця, які вони можуть/хочуть будувати? Моя гіпотеза: це знижує попит на висновок у централізованих центрах обробки даних, а також збільшує ступінь затримки, з якою центри обробки даних з висновками можуть мати справу (оскільки часто необхідні завдання з низькою затримкою будуть виконуватися локально).
Sam Altman
Sam Altman20 годин тому
GPT-OSS вийшов! ми зробили відкриту модель, яка працює на рівні O4-Mini і працює на ноутбуці високого класу (WTF!!) (і менший, який працює на телефоні). Супер гордість за команду; Великий тріумф техніки.
113,14K