O Character Animator, um software do pacote Creative Cloud da Adobe, está recebendo uma atualização. Uma série de novos recursos que chegam ao software podem ser testados agora no modo beta público.
Desde o seu lançamento, há cinco anos, o Character Animator tem sido cada vez mais usado por estúdios que buscam aproveitar seus recursos de animação em tempo real. Até agora, o software permitiu aos usuários controlar personagens animados em tempo real com o mouse ou teclas, mas também por meio de suas expressões faciais e diálogos. Tem sido usado para acelerar pipelines tradicionais e encenar animações ao vivo – lembra daquela esquete com Homer Simpson?
A versão mais recente é mais precisa e versátil do que antes. Aqui está uma lista de recursos novos e aprimorados, conforme descrito pela Adobe:
- O Speech-Aware Animation usa o poder do Adobe Sensei para gerar automaticamente a animação a partir da fala gravada e inclui movimentos de cabeça e sobrancelha correspondentes a uma gravação de voz. O Speech-Aware Animation foi desenvolvido pela Adobe Research e apresentado no Adobe MAX em 2019 como Project Sweet Talk. O recurso requer Windows 10 ou MacOS 10.15
- O Limb IK (Inverse kinematics) oferece aos puppets movimentos naturais e responsivos de braço e perna para atividades como correr, pular e dançar em uma cena. O membro IK controla as direções de flexão e alongamento das pernas, bem como dos braços. Por exemplo, prenda uma mão no lugar enquanto move o resto do corpo ou faça os pés de um personagem grudarem no chão enquanto ele se agacha de uma forma mais realista.
- As ferramentas de organização da timeline incluem a capacidade de filtrar a timeline para focar nos puppets individuais, cenas, áudio ou keyframes. As tomadas podem ser codificadas por cores, ocultas ou isoladas, tornando mais rápido e fácil trabalhar com qualquer parte da cena. Alterne o “Shy button” para ocultar ou mostrar layers individuais na timeline.
- Lip Sync, desenvolvido por Adobe Sensei, aprimorou algoritmos e o machine learning, que agora oferece movimentos da boca mais precisos para as partes faladas.
- Merge Takes permite aos usuários combinar vários Lip Sync ou Triggers em uma única layer, o que ajuda a consolidar as tomadas e economizar espaço vertical na timeline.
- Pin Feet tem uma nova opção Pin Feet When Standing. Isso permite que o usuário mantenha os pés de seu personagem no chão quando não estiver andando.
- Set Rest Pose agora anima suavemente de volta à posição padrão quando você clica para recalibrar, então você pode usá-lo durante uma performance ao vivo sem fazer seu personagem pular abruptamente, por exemplo, se você inadvertidamente mover seu rosto para fora do frame.
A Adobe está lançando o Character Animator como uma ferramenta que economiza tempo para os produtores de animação. Ela ofereceu os recursos beta para a Nickelodeon, que os usou para produzir o especial de meia hora The Loud House & The Casagrandes Hangin ‘At Home em uma semana em maio.
“Para ajudar a fazer isso acontecer remotamente”, diz Rob Kohr, diretor de animação e vfx, criativo e design da Nickelodeon, “usamos a ferramenta de lip-sync beta do Character Animator, que economizou muito tempo para nossos animadores, fornecendo um lip-sync muito mais natural e permitindo que a equipe trabalhe de forma mais colaborativa.”
Outras produções que já usaram os recursos são Your Daily Horoscope, da ATTN , que é transmitido no Quibi, e Tooning Out the News , da CBS All Access. No início deste ano, o software ganhou um Emmy técnico “como um sistema pioneiro para animação baseada em performance ao vivo usando reconhecimento facial”.
O Character Animator está disponível para download por meio do aplicativo Creative Cloud para desktop, incluindo a versão de lançamento e o beta público.