Com a tecnologia avançando a passos cada vez mais largos, soluções que num passado não muito distante pareciam improváveis, hoje já são realidade. A computação gráfica é usada há tempos no cinema para criar personagens, driblar a morte de atores e aplacar os sinais do tempo. Mas as inovações não param por aí. Um nicho crescente é o de hologramas humanos digitais, aqueles que causaram assombro quando apareceram em “Star Wars: Uma Nova Esperança”, de 1977. Hoje, contudo, o que era obra de ficção vem sendo explorado, sobretudo, pela indústria fonográfica que tem se aproveitado da tecnologia para devolver aos palcos cantores já falecidos, como Roy Orbison e Amy Winehouse. Mas as possibilidades são inúmeras. A banda sueca ABBA, sucesso dos anos 80, retorna 40 anos depois do lançamento do seu último disco, com um show revolucionário. A primeira apresentação será em 27 de maio de 2022, no “Abba Arena”, um espaço construído no Queen Elizabeth Olympic Park, em Londres, especialmente para o evento. A novidade é que a performance será feita por hologramas de avatares digitais, em vez dos próprios artistas, que já estão com mais de 70 anos. O show foi gravado previamente pelos próprios músicos, que usaram trajes especiais para mapear seus movimentos e dar vida aos avatares. Não haverá turnê ou shows presenciais nessa nova fase do grupo. E onda dos avatares, já chegou por aqui. A apresentadora Sabrina Sato largou na frente e de olho no metaverso – mundo virtual que tenta replicar a realidade através de dispositivos digitais – aposta no lançamento de Satiko, sua versão digital, que deve atuar como influenciadora virtual. Ao que parece, nesse admirável mundo novo, os famosos estão encontrando uma forma de expandir a sua presença e até ultrapassar as barreiras do tempo e da própria existência.

 

Um milagre chamado computação gráfica

Em 2016, “Rogue One”, outro capítulo da saga Star Wars ganhou as manchetes no mundo todo ao trazer de volta às telas o vilão Moff Tarkin, interpretado por Peter Cushing, morto em 1994. “Nós transformamos a aparência de um ator (Guy Henry) usando tecnologia digital. É uma versão mega tecnológica e trabalhosa de um trabalho de maquiagem”, explicou na época John Knoll, produtor e executivo da Industrial Light and Magic, responsável pela façanha. O filme ainda se valeu da mesma técnica para a cena final com a jovem princesa Leia, interpretada no set por Ingvild Deila que depois teve suas cenas submetidas ao mesmo processo usado em Cushing para se assemelhar com a jovem Carrie Fisher. Recurso parecido foi usado em “Blade Runner 2049” que trouxe de volta a icônica Rachel, interpretada por Sean Young, 35 anos depois do longa original ser lançado. Para assegurar o realismo da sequência, a equipe de efeitos especiais decidiu reconstruir o crânio de Young no computador para analisar, anatomicamente, as proporções e as medidas da sua face. Também estudaram meticulosamente cada detalhe, curva e imperfeição dos rostos da atriz e da dublê para criar modelos digitais de suas faces e com o auxílio da CGI – sigla em inglês para o termo Computer Graphic Imagery, ou seja, imagens geradas por computador, a famosa computação gráfica – fazer a cena com total realismo, apesar da atriz original ter, na época, 58 anos. Antes disso, em 2015, “Velozes e Furiosos 7” precisou recorrer a mesma tecnologia para concluir as filmagens, interrompidas dois anos antes com a morte do ator Paul Walker num trágico acidente de carro.

Ao assistir o longa é difícil distinguir as cenas rodadas pelo ator daquelas feitas depois de sua morte. Aqui a mágica ficou por conta do estúdio do diretor neozelandês Peter Jackson, também responsável pela adaptação dos livros “O Senhor dos Anéis” e “O Hobbit” para o cinema. Os produtores também usaram dublês e contaram com a ajuda de dois irmãos de Walker em cenas com enquadramentos em que não era possível ver seus rostos. A mesma tecnologia, porém, um pouco mais rudimentar, também foi usada em 1994, em “O Corvo”, para concluir a participação do protagonista da trama, o ator Brandon Lee, filho do lendário Bruce Lee, que havia morrido num acidente durante as filmagens. O mesmo ocorreu em 2000 com o ator Oliver Reed, que morreu apenas três dias antes de encerrar a sua participação em ”Gladiador”. Como quase todas as suas cenas já estavam rodadas e elas incluíam centenas de figurantes, foi descartada a ideia do recrutamento de outro ator para o trabalho. A solução, então, foi gastar 3 milhões dólares extras na recriação digital da figura do ator. Closes do rosto de Reed foram escaneados num computador e inseridos no corpo de um dublê, que realizou as cenas que faltavam. Mas deste então já se passaram mais de vinte anos e os recursos foram se aprimorando, sendo cada vez mais difícil, pelo menos para olhos leigos, identificar cenas “reais” daquelas geradas com o auxílio de programas de computador.

 

O que está vindo por aí?

Para apresentar humanos cada vez mais perfeitos em CG, os estúdios investem pesado em tecnologias de captura facial, varredura, simulações musculares, de pele e cabelos. A inteligência artificial também está sendo utilizada. O estúdio Digital Domain – profundamente envolvido com humanos digitais, é um dos expoentes nesse segmento. Ron Miller, supervisor de modelagem facial da companhia, explica que, para ele, o mais desafiador é tentar reproduzir com precisão o desempenho de um ator. “Tudo, desde os traços gerais até as microexpressões, precisa ser representado na tela para que o público perceba a interpretação desse personagem de CG, a exemplo do que acontece com os atores reais. Nesse sentido, a Digital Domain tem desenvolvido e refinado a sua tecnologia para reproduzir humanos digitalmente sob a liderança especializada de Darren Hendler, um processo que se intensificou com “O Curioso Caso de Benjamin Button”. Desde então, temos usado inteligência artificial e ferramentas proprietárias para combinar a atuação de um ator real com técnicas tradicionais de animação. Aplicamos essas técnicas em vários personagens, como os duendes de “Malévola” e a Fera na versão em filme de “A Bela e a Fera”. Mais recentemente a companhia empregou todo esse know-how para ajudar a criar a versão do vilão Thanos para “Vingadores: Guerra Infinita”. Nesse caso, explica o executivo, durante o pouco tempo disponível entre este filme e “Vingadores: o Ultimato”, Thanos passou por algumas atualizações significativas. “Aprendendo com nossa experiência em “Guerra Infinita”, implementamos mudanças, sobretudo nas texturas de Thanos. Essas atualizações tornaram o processo mais eficiente e também permitiram um desempenho mais detalhado. Além disso, precisávamos criar uma versão de Thanos que havia sido danificada pela manopla. Para dar mais veracidade aos seus ferimentos, o Supervisor de Movimentos Faciais, Rickey Cloudsdale, trabalhou com o Supervisor de Animação, Phil Cramer, para adicionar novos controles que aumentaram a fidelidade dos movimentos faciais e a aparência dos danos musculares”, aplica o executivo.

Mas esses são apenas alguns exemplos do potencial dessas tecnologias que devem seguir revolucionando a indústria do audiovisual. Atores de carne e osso já podem contar com suas próprias versões em diferentes faixas etárias, com hologramas e avatares; atores falecidos podem voltar para performances totalmente novas. A gama de possibilidades é imensa. Resta agora estabelecer os limites éticos e as inevitáveis questões associadas aos direitos de imagem, que certamente renderão debates acalorados e muitas chegarão aos tribunais. A própria essência da arte pode ser colocada em xeque, afinal por mais realistas que sejam essas criações da computação gráfica, por mais que a IA reproduza expressões e gestos, eles sempre serão desprovidos da humanidade, elemento essencial da expressão artística.

 

Rush Video – Ideias em movimento.