Den nye Gemini-bildemodellen (aka "nanobanan") fungerer ganske bra og er veldig morsom å bruke med barna dine (jeg gjorde den ene til en dronning, den andre Blippi, på deres forespørsel). Den har imidlertid noen ganske rare begrensninger. Noen ganger får den likheten veldig nøyaktig. Andre ganger ser ansiktene helt ugjenkjennelige ut. Det ser ikke ut til å være mye av et mønster som jeg kan skjelne når det gjelder når det fungerer og når det mislykkes. Google har allerede ganske god teknologi for å gjenkjenne ansikter, siden de gjør dette i Google Bilder. Jeg lurer på hvorfor de ikke legger til et automatisk kvalitetskontrolltrinn som sjekker om ansiktet i det genererte bildet passer godt til ansiktet i originalbildet og prøver automatisk de som faller på nytt. Inkonsekvensen gjør at produktet føles mye mindre magisk. Det større problemet er at revisjoner av et bilde som har gått galt bokstavelig talt aldri fungerer. Den er helt ute av stand til å komme seg når den går ned en dårlig vei. Selv om revisjonene er ganske entydige og beskjedne. Føles nesten som "kontekstforgiftning" av noe slag. Dette virker som det mye mer alvorlige problemet med at dette er et produktivitetsverktøy som konkurrerer med Photoshop. Men kan sannsynligvis også løses ved å alltid gjøre flere generasjoner bak kulissene og gradere dem og bare vise den beste. De lar deg heller ikke regenerere ("rulle på nytt") et bilde, så du må starte en ny samtale hver gang. Dette er irriterende og forurenser samtaleloggen din. Men med alt det sagt, fungerer det ganske bra, og absolutt mye bedre enn den lignende funksjonaliteten i Facebook Messenger. Adobe må absolutt ha et svar på dette hvis de vil holde seg relevante.
9,56K