Remi підключив GPT-4o @openai Reachy Mini, і це дуже круто. Перевірте дзеркальне челендж і гру в шахи зокрема! Цікаві нові можливості: - Аналіз зображення: Reachy Mini тепер може подивитися на фотографію, яку він щойно зробив, і описати або обміркувати це - Відстеження обличчя: підтримує зоровий контакт і робить взаємодію набагато природнішою - Злиття рухів: [хитання головою під час розмови] + [відстеження обличчя] + [емоції або танці] тепер може працювати одночасно - Розпізнавання обличчя: працює локально - Автономна поведінка під час простою: коли деякий час нічого не відбувається, модель може вирішити активувати поведінку на основі контексту Питання до спільноти: • У ранніх версіях при грі емоцій використовувалися звуки флейти. Цей говорить замість нього (наприклад, "оллала" на початку - це емоція + голос). Це повністю змінює моє сприйняття робота (домашня тварина? людина? добрий інопланетянин?). Чи варто тримати перемикач для перемикання між звуками голосу та флейти? • Як ви відчуваєте затримки з відповіддю? Деякі обмеження: - Ще немає системи пам'яті - Ще немає голосової ідентифікації - Стратегія в натовпі все ще незрозуміла: виявлення голосової активності має тенденцію активуватися занадто часто, і нам не подобається підхід за ключовими словами Не можу дочекатися, щоб побачити, що ви всі будуєте з його допомогою!