Veo 3: A nova IA do Google é o começo do fim do entretenimento?

Ler resumo da notícia
Veo 3, o novo modelo de inteligência artificial do Google, está chamando atenção —e com razão. A tecnologia é poderosa: consegue criar vídeos incrivelmente realistas, tanto na imagem quanto nos diálogos e no som ambiente. No lançamento, a empresa mostrou exemplos impressionantes e até absurdos, incluindo simulações de telejornais.
A primeira reação de muita gente foi de preocupação com o jornalismo e a opinião pública. Afinal, nunca foi tão fácil produzir notícias falsas. Mas há outro impacto igualmente relevante: o que essa tecnologia pode provocar na indústria do entretenimento, especialmente no audiovisual.
Cabe explicar o que é o Veo 3. Desenvolvido pelo Google DeepMind, que é um laboratório de inovação, trata-se de uma IA generativa que transforma textos em vídeos. Basicamente, enviamos um comando (prompt) e é criado um conteúdo realístico com som e imagem em movimento.
O que faz disso tudo surpreendente é que o Veo 3 permite criar cenas mais longas (no momento, de até oito segundos) com uma narrativa consistente, com áudio sincronizado e continuidade. Pontos que, até outro dia, não eram possíveis. Imagine pedir para a inteligência artificial uma perseguição de carro em Tóquio, com dois personagens discutindo em português —e isso ser entregue em poucos minutos, com um realismo quase impecável.
Veja, a seguir, um exemplo de seu uso:
Revelada em maio, durante o Google I/O 2025 —principal evento anual da empresa voltado a desenvolvedores e tecnologias emergentes—, a novidade já está acessível para quem assina o plano Ultra do Google AI, que custa US$ 1.209,90 mensais (cerca de R$ 6.800). Para quem tem menos dinheiro, é possível testar a ferramenta com limitações no pacote Pro, por R$ 96,99 ao mês.
O Google afirma que criou o produto tendo em mente a responsabilidade. Ou seja, a IA não vai atender pedidos ou resultados que possam, de alguma forma, ser prejudiciais. Além disso, os vídeos gerados vão receber uma marca d'água específica.
"As produções do Veo passarão por avaliações de segurança e verificações de conteúdo memorizado para reduzir possíveis problemas relacionados à privacidade, violação de direitos autorais, e viés", afirma o site oficial.
Na teoria, perfeito. Mas e na prática?
Como vigiar os direitos autorais?
Em 2023, a produção de filmes e séries em Hollywood parou. Atores e roteiristas entraram em greve para, entre diversos pontos, regulamentar o uso de seu trabalho para o treinamento de inteligências artificiais.
Contudo, o que o Google fez não é muito longe do que os profissionais do audiovisual temiam. O Veo 3 não tem capacidade de criar nada do zero: ele foi treinado a partir de toneladas de conteúdos produzidos anteriormente.
O Google afirma que essas imagens vieram de fontes como produções sem direitos autorais, conteúdos licenciados ou materiais criados por usuários. Sabe aquele enorme texto que você assina ao criar um canal no YouTube? Então. O seu rosto agora é inspiração para IA, para dizer o mínimo.
Também não há muitos detalhes sobre o que seria esse conteúdo licenciado.
Seja como for, o que vimos nas criações do Veo vieram de algum lugar. Caso o licenciamento tenha sido feito de forma irregular, sem a devida transparência com os profissionais que trabalharam nele, por exemplo? A discussão vai longe.
Isso, claro, falando da ferramenta criada pelo Google. A tecnologia está aí e tem evoluído de forma assustadoramente rápida. E se a próxima IA do gênero vier de uma empresa com menos escrúpulos, transparência ou amarras legais?
Impacto nos filmes e séries
Na última temporada do Oscar, duas polêmicas envolvendo o uso de inteligência artificial surgiram no noticiário.
Uma foi sobre o uso de IA para corrigir imperfeições no canto de Karla Sofía Gascón no filme "Emilia Pérez" e no sotaque húngaro de Adrien Brody e Felicity Jones em "O Brutalista". O segundo longa-metragem também foi criticado por usar o artifício para criar maquetes de construções creditadas ao protagonista.
Com o avanço de produtos como o Veo 3, a linha entre a arte e a tecnologia vai ficar ainda mais borrada.
Enquanto diretores, roteiristas e atores contam com a proteção de acordos coletivos, o mesmo não vale para várias outras funções em Hollywood —e muito menos fora dos Estados Unidos. Um exemplo: o ator, ou seu dublê, pode até fazer a cena de ação. Contudo, todo o restante —dos efeitos pirotécnicos à computação gráfica— pode acabar sendo executado não por humanos, mas, sim, por máquinas. Tudo isso por uma fração do custo e com um realismo impressionante.
Quem mais sofre são os profissionais "invisíveis" —modeladores 3D, designers de som, operadores de efeitos especiais práticos, etc. Muitos já foram substituídos em ondas recentes, e os que seguem na ativa podem estar com os dias contados.
Aqui entra uma questão existencial: até que ponto a dramaturgia é algo a ser executado por artistas, e o quanto pode ser um produto de uma inteligência artificial?
Inundando as nossas telas
Não para por aí. Nada impede que outras empresas, alheias ao mundo do entretenimento e sem relação com as greves de 2023, entrem nesse mercado —produzindo bilhões de horas de audiovisual aparentemente verossímil, ainda que de baixa qualidade.
Vale mais um Tom Cruise pulando de um avião para outro no mais novo filme da saga "Missão: Impossível", ou cenas de tirar ainda mais o fôlego —e completamente fakes?

Você pode alegar que quem decide é o público, que terá nas mãos o poder de escolha. Pode ser. Contudo, as produções de IA tendem a ganhar em termos de volume, criando um ruído no feed e diminuindo o alcance da produção humana. Vai ser tanta coisa ruim que ficará difícil separar o joio do trigo, matando de vez a plataforma e o seu conteúdo. Esse movimento já está em curso, ainda que com um caráter de humor misturado à curiosidade: nas redes sociais, multiplicam-se vídeos gerados com o Veo, incluindo reencenações de momentos históricos ou cenas clássicas da literatura.
É aquele cenário de que não importa quem vai ganhar ou vai perder: vai todo mundo perder.
Selo para as produções de IA
Em 2023, em meio às greves, esta coluna de Splash entrevistou o diretor brasileiro Fernando Meirelles, autor de sucessos como "Cidade de Deus" e "Dois Papas". Na época, o cineasta já apontava problemas. "Isso poderá ser muito destrutivo se não agirmos rápido para controlar seu uso", disse à época.
Cerca de dois anos depois, esse cenário fica cada vez mais real.
Para Meirelles, a solução seria indicar —por meio de um selo— o quanto um filme ou uma série utilizou da inteligência artificial. "Uma ideia seria o uso de um selo tipo 'AI Free' [livre de IA], ou um aviso: 'Atenção: esse filme contém 35% de IA'"
Isso daria visibilidade para o público que nem sempre percebe o que é sintético, e pode ser manipulado por isso. Transparência é essencial.
A questão é: como construir um consenso entre tecnologia, cultura e entretenimento para viabilizar esse tipo de aviso? Diferente dos setores de saúde e alimentação —onde uma agência reguladora pode simplesmente exigir alertas nas embalagens, como a lupa de "alto teor de açúcar" que temos no Brasil—, aqui não existe um caminho tão direto.
Mais do que isso, até. Quase sempre o audiovisual não tem embalagem, e a sua prateleira pode ser uma plataforma de vídeos curtos, por exemplo.
Na prática, não há nenhuma movimentação (pública, ao menos) nesse sentido. Enquanto isso, a tecnologia evolui sem freios, sempre nos pegando de surpresa —por mais previsível que o futuro possa ser.
Siga Renan Martins Frade no X (ex-Twitter), Instagram, TikTok e LinkedIn, ou faça parte do grupo do WhatsApp.
Deixe seu comentário
O autor da mensagem, e não o UOL, é o responsável pelo comentário. Leia as Regras de Uso do UOL.