Remi koblet @openai GPT-4o til Reachy Mini, og det er ganske kult. Sjekk speilutfordringen og sjakkspill spesielt! Morsomme nye funksjoner: - Bildeanalyse: Reachy Mini kan nå se på et bilde den nettopp tok og beskrive eller resonnere om det - Ansiktssporing: holder øyekontakt og får interaksjoner til å føles mye mer naturlige - Bevegelsesfusjon: [hodet vingler mens du snakker] + [ansiktssporing] + [følelser eller danser] kan nå kjøre samtidig - Ansiktsgjenkjenning: kjører lokalt - Autonom atferd når den er inaktiv: Når ingenting skjer på en stund, kan modellen bestemme seg for å utløse kontekstbasert atferd Spørsmål til fellesskapet: • Tidligere versjoner brukte fløytelyder når de spilte følelser. Denne snakker i stedet (for eksempel er "olala" i starten en følelse + stemme). Det endrer fullstendig hvordan jeg oppfatter roboten (kjæledyr? menneske? type romvesen?). Bør vi holde en bryter for å bytte mellom stemme- og fløytelyder? • Hvordan føles svarforsinkelsene for deg? Noen begrensninger: - Ikke noe minnesystem ennå - Ingen stemmeidentifikasjon ennå - Strategi i folkemengder fortsatt uklar: stemmeaktivitetsdeteksjon har en tendens til å aktiveres for ofte, og vi liker ikke søkeordtilnærmingen Gleder meg til å se hva dere alle bygger med den!