O Remi ligou o @openai GPT-4o ao Reachy Mini e é bastante fixe. Confira o desafio do espelho e o jogo de xadrez em particular! Novas capacidades divertidas: - Análise de imagem: o Reachy Mini agora pode olhar para uma foto que acabou de tirar e descrever ou raciocinar sobre ela - Rastreamento facial: mantém o contato visual e torna as interações muito mais naturais - Fusão de movimento: [balanço da cabeça enquanto fala] + [rastreamento facial] + [emoções ou danças] agora podem funcionar simultaneamente - Reconhecimento facial: funciona localmente - Comportamentos autónomos quando inativo: quando nada acontece por um tempo, o modelo pode decidir ativar comportamentos baseados em contexto Perguntas para a comunidade: • Versões anteriores usavam sons de flauta ao expressar emoções. Esta fala em vez disso (por exemplo, o "olala" no início é uma emoção + voz). Isso muda completamente a forma como percebo o robô (animal de estimação? humano? alienígena amigável?). Devemos manter um interruptor para alternar entre sons de voz e flauta? • Como se sentem em relação aos atrasos nas respostas? Algumas limitações: - Sem sistema de memória ainda - Sem identificação de voz ainda - Estratégia em multidões ainda não clara: a detecção de atividade vocal tende a ativar-se com muita frequência, e não gostamos da abordagem de palavras-chave Mal posso esperar para ver o que todos vocês vão construir com isso!