Skip to content

Acompanhe Conteúdos Exclusivos

Veo 3: a realidade que assusta — e pode custar caro!

30 de maio de 2025

Sou usuário de Linux — não sou um mago do terminal ou guru da programação, apenas alguém que ama software livre. Sou atraído por ele porque é free — não apenas free como “sem custo”, mas free como liberdade. A liberdade de mexer, personalizar e ter controle sobre minha tecnologia sem regras corporativas. Isso é o que o código aberto significa para mim: confiança, comunidade, independência.

Mas estou preocupado. Vejo uma tempestade se formando — uma potencial guerra pela liberdade contra o software de código aberto. E ela está sendo alimentada pelo furor em torno do Veo 3 da Google, uma IA que cria vídeos tão realistas que está abalando nossa percepção do que é verdade online.

Lançado no Google I/O 2025, o Veo 3 está causando na internet. Ele gera vídeos com áudio tão real — diálogos, efeitos sonoros, sincronia labial perfeita — que assustam pelo realismo. Deepfakes que desafiam o público a distinguir o real do artificial parecem mais próximos, e a confiança no conteúdo online está desmoronando.

As capacidades do Veo 3 são realmente impressionantes, e não demorará muito para que ferramentas de código aberto possam fazer o mesmo, mas com uma grande diferença: enquanto o Veo 3 possui filtros para impedir que alguém gere um vídeo controverso demais, no open source o céu — ou o inferno — é o limite, e é aí que a percepção do público pode dar início a uma guerra contra o software livre.

Vamos ser francos: a tecnologia não é vilã. Pessoas compram câmeras e as usam para vlogs, fotos de família e arte. Alguns as usam para coisas horríveis, como conteúdo ilegal de abuso infantil. Deveríamos banir câmeras? Restringi-las a usuários “aprovados”? Isso seria um absurdo. IA de código aberto, como Stable Diffusion, é igual — uma ferramenta, não uma criminosa. Sim, pode ser mal usada para deepfakes ou pior, mas isso vale para qualquer tecnologia. O problema está nos usuários, não no código.

Minha preocupação é que grandes empresas de tecnologia e governos explorem este medo para terem ainda mais controle. Companhias como Google e Microsoft, detentoras do Gemini e do Copilot, querem que mais pessoas usem suas IAs, e colocam filtros para bloquear conteúdo prejudicial — o que é bom.

O que as grandes companhias menos querem é um pesadelo de relações públicas se usarem suas ferramentas para um crime estrondoso. Já o Stable Diffusion, por exemplo, software de código aberto que qualquer um pode baixar e modificar, não tem essas rédeas corporativas. Com ele é possível criar o que o usuário quiser, e essa liberdade o tornaria um alvo. Temo que o realismo do Veo 3 seja a desculpa para rotular ferramentas de código aberto como “perigosas demais” por não terem o controle corporativo ou governamental.

E se a NVIDIA ou a Microsoft bloquearem GPUs ou softwares para impedir a execução de IAs de código aberto? Ou governos impuserem leis que sufoquem pequenos desenvolvedores? Vejo três formas de essa guerra começar: alguém ser incriminado por um crime com um vídeo de IA, um criminoso alegar que evidências em vídeo são falsas geradas por IA, ou — o pior de tudo — alguém criar imagens contendo abuso de um filho de uma pessoa poderosa através de ferramentas de código aberto.

Qualquer um desses casos pode inflamar a opinião pública, com o software de código aberto como bode expiatório.

Acha difícil as empresas fazerem isso? No Japão, temos um alerta de como as companhias podem ditar o que consumimos: em 2025, Visa e Mastercard baniram pagamentos a plataformas com ilustrações de conteúdo adulto, como Fantia e Melonbooks, alegando “proteção de marca” contra o conteúdo vendido nas plataformas. Isso esmagou criadores, forçando-os a buscar alternativas ou fechar.

O curioso é que ambas as bandeiras de cartões decidiram deixar de aceitar pagamentos nas plataformas por conta de alguns artistas — não todos —  que vendiam ilustrações de personagens fictícios (desenhados) de menores de idade, mas continuam aceitando pagamentos para plataformas como Onlyfans, que frequentemente possuem contas reportadas por abuso de menores de idade reais, feitos de carne e osso. Em resumo: as empresas atacaram a plataforma, quando quem deveria receber punições são os criminosos, e é o que pode acontecer com toda a comunidade entusiasta do software livre de código aberto.

A comunidade de código aberto é resiliente. O Linux prosperou através de décadas apesar de pressões corporativas. Mas não sou ingênuo. Se grandes empresas e governos vierem atrás do código aberto, será uma luta dura. A liberdade de criar sem permissão — e sem custo — pode estar em risco.

Mas por que alguém se daria o trabalho de instalar e rodar localmente uma ferramenta IA de código aberto?” é a pergunta que você pode estar se fazendo agora. Como eu já disse, o motivo é liberdade: tente perguntar algo sobre política ao Gemini e veja ele dizer que não pode responder sobre o assunto, ou pergunte ao DeepSeek sobre o que aconteceu na Praça da Paz Celestial em 1989. As salvaguardas das ferramentas corporativas as deixam muito limitadas. Hoje limitam questionamentos ou geração de conteúdo sobre política aqui e ali. Lá na frente, outros temas podem ser bloqueados. Quem decide o que podemos pensar, criar ou aprender?

Mas o que fazer se alguém começar a usar IA para praticar crimes? Simples: usemos as leis que já existem para punir os crimes. Não há necessidade de banir a ferramenta. IA, como câmeras ou lápis, podem ser mal utilizadas. Se deixarmos o medo de alguns malfeitores — ou agendas corporativas — estrangular a IA de código aberto, perdemos mais que código; perdemos liberdade. Espero estar errado, mas precisamos estar prontos. Se essa guerra vier, é nossa liberdade criativa e de ideias que está em jogo.

Adelar Martins

Adelar Martins

Aluno da grande escola autodidata da vida, Adel é videomaker, fotógrafo, músico, geek e autista com hiperfoco em arte.

Deixe um comentário

Seu email não será publicado.

20 − 16 =