Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Цьому є просте пояснення. люди отримували постійний дофаміновий внутрішньовенний катетер з 4 години, говорячи їм, що вони геніальні та особливі в усіх можливих відношеннях... Потім його смикнуло.
Розставання сильно б'є, тому що хімія вашого мозку на деякий час погіршується. Так само і тут, просто з ШІ замість людини.
Насправді, це лише доказ того, що зараз ми живемо в суспільстві, яке глибоко зголодніло за прихильністю.

21 години тому
Якщо ви стежили за розгортанням GPT-5, одна річ, яку ви можете помітити, це те, наскільки деякі люди прив'язані до конкретних моделей штучного інтелекту. Вона відчувається інакше, і сильніше, ніж ті види прив'язаності, які люди мали до попередніх видів технологій (і тому раптова відмова від старих моделей, від яких користувачі залежали у своїх робочих процесах, була помилкою).
Це те, за чим ми уважно стежимо протягом останнього року або близько того, але все ще не привернуло багато уваги громадськості (за винятком того, коли ми випустили оновлення до GPT-4o, яке було занадто підлабузницьким).
(Це лише моя поточна думка, а ще не офіційна позиція OpenAI.)
Люди використовували технології, включаючи штучний інтелект, у саморуйнівний спосіб; якщо користувач перебуває в психічно вразливому стані та схильний до ілюзій, ми не хочемо, щоб штучний інтелект посилював це. Більшість користувачів можуть тримати чітку межу між реальністю та вигадкою або рольовою грою, але невеликий відсоток не може. Ми цінуємо свободу користувачів як основний принцип, але ми також відчуваємо відповідальність за те, як впроваджуємо нові технології з новими ризиками.
Заохочення ілюзій у користувача, якому важко відрізнити реальність від вигадки, є крайнім випадком, і цілком зрозуміло, що робити, але проблеми, які мене найбільше турбують, більш тонкі. Буде багато крайніх випадків, і загалом ми плануємо дотримуватися принципу «ставтеся до дорослих користувачів як до дорослих», що в деяких випадках включатиме відштовхування користувачів, щоб переконатися, що вони отримують те, що насправді хочуть.
Багато людей ефективно використовують ChatGPT як свого роду терапевта або лайф-коуча, навіть якщо б вони не описали його так. Це може бути дуже добре! Багато людей отримують від нього цінність вже сьогодні.
Якщо люди отримують хороші поради, просуваються до власних цілей, а їхня задоволеність життям зростає з роками, ми будемо пишатися тим, що створюємо щось справді корисне, навіть якщо вони багато використовують і покладаються на ChatGPT. Якщо, з іншого боку, користувачі мають стосунки з ChatGPT, коли вони думають, що почуваються краще після розмови, але їх несвідомо відштовхують від свого довгострокового благополуччя (як би вони його не визначали), це погано. Також погано, наприклад, якщо користувач хоче менше користуватися ChatGPT і відчуває, що не може.
Я можу уявити майбутнє, де багато людей дійсно довіряють порадам ChatGPT у своїх найважливіших рішеннях. Хоча це могло б бути чудово, це змушує мене хвилюватися. Але я очікую, що це досягне певної міри, і незабаром мільярди людей можуть розмовляти зі штучним інтелектом таким чином. Тому ми (ми як у суспільстві, а також ми, як в OpenAI) повинні з'ясувати, як зробити це великим позитивним результатом.
Є кілька причин, чому я думаю, що у нас є хороші шанси зробити це правильно. У нас є набагато кращі технології, які допомагають нам вимірювати, як ми працюємо, ніж попередні покоління технологій. Наприклад, наш продукт може спілкуватися з користувачами, щоб зрозуміти, як вони справляються зі своїми короткостроковими та довгостроковими цілями, ми можемо пояснити складні та нюансовані питання нашим моделям та багато іншого.
50,79K
Найкращі
Рейтинг
Вибране