Tecnologias como o Veo 3 ampliam o realismo das produções e preocupam especialistas pelos desafios no combate à desinformação e urgência da autorregulação do setor
Uso criativo da IA em vídeos deve ser transparente e responsável, alertam educadores do Centro Paula Souza l Foto: Google
O avanço acelerado das tecnologias de Inteligência Artificial (IA) para geração de vídeos realistas, como o Veo 3, versão mais recente do modelo desenvolvido pela Google, traz desafios significativos para a segurança da informação, a confiança pública nas mídias digitais e o combate à desinformação. Esses novos recursos, que tornam quase impossível distinguir o que é real do que foi criado artificialmente, abrem espaço para golpes, manipulação e desinformação em larga escala. O assunto é importante e vem sendo debatido nas unidades do Centro Paula Souza (CPS).
Aparecida Maria Zem Lopes, professora de Desenvolvimento de Software Multiplataforma da Faculdade de Tecnologia do Estado (Fatec) Jahu, destaca que os vídeos gerados por IA com alto grau de realismo podem ser usados para criar deepfakes (técnica que permite alterar um vídeo ou foto com ajuda da IA) sofisticados que comprometem autoridades, jornalistas e cidadãos comuns, prejudicando a credibilidade do conteúdo digital. Ela também alerta para golpes personalizados que copiam voz e gestos para enganar pessoas e obter dados sensíveis, como senhas ou acessos a sistemas internos.
A professora Adriane Cavichiolli, que leciona as disciplinas de Inteligência Artificial, BI e Big Data e Interação Humano Computador na Fatec Presidente Prudente, reforça essa preocupação, afirmando que “a ascensão de ferramentas como o Veo 3 eleva significativamente os riscos ligados à criação de vídeos hiper-realistas”. Segundo ela, a principal ameaça é à confiança pública, “quando se torna quase impossível distinguir entre o que é real e o que é sintetizado, há ameaças à integridade das informações veiculadas online”, abrindo caminho para engenharia social, fake news, manipulação de fatos e fraudes diversas.
Fernando Di Gianni, professor de Introdução à Ciência Cognitiva da Fatec Santos, amplia essa visão ao destacar que o impacto vai além do imediato, afetando setores como cinema e publicidade, onde a produção tradicional começa a ser substituída por conteúdos gerados por IA. Segundo ele, é fundamental que haja uma autorregulação do setor e um selo claro que identifique vídeos produzidos com a tecnologia, para garantir transparência e segurança.
Desinformação
O realismo crescente dos vídeos gerados por IA facilita a propagação de fake news e golpes, influenciando desde eleições e crises sanitárias até fraudes financeiras. Aparecida ressalta a necessidade de uma combinação de estratégias para mitigar esses efeitos, incluindo leis que exijam metadados comprovando a origem dos vídeos, educação midiática para o desenvolvimento do senso crítico e a evolução constante de ferramentas tecnológicas para detectar conteúdos falsos.
Adriane concorda e pontua que “deepfakes mais convincentes potencializam golpes, pois podem simular pessoas de autoridade ou familiares de forma praticamente irreconhecível ao olhar humano, facilitando fraudes bancárias, extorsões e chantagens”. Para ela, o impacto na esfera pública é ainda mais grave, com potencial para manipular eleições, gerar crises diplomáticas ou fomentar pânico social.
Entre as soluções, ela defende um conjunto de medidas integradas que envolvem desenvolvimento de tecnologias de detecção de deepfakes, educação midiática, marcação de conteúdo gerado por IA e regulação efetiva sobre o uso dessas mídias, responsabilizando usuários e desenvolvedores.
Di Gianni complementa que, além da regulação, é necessária uma cultura de responsabilidade compartilhada entre desenvolvedores, plataformas e usuários. Ferramentas já existem, como as do Google para identificar conteúdos gerados por IA, mas o grande desafio está em promover uma autorregulação eficaz e conscientizar o público sobre esses riscos.
Liberdade criativa
Quanto ao uso da IA para fins humorísticos e satíricos, Aparecida reconhece o desafio de equilibrar criatividade e responsabilidade social. Ela alerta que, apesar do humor ser importante, alguns conteúdos gerados podem disseminar desinformação, aumentar discriminações e permitir ataques anônimos. Por isso, considera fundamental rotular claramente esses materiais.
Adriane complementa que ferramentas poderosas como as IAs de vídeo exigem uma dose extra de responsabilidade, dado seu potencial de confundir e impactar negativamente a vida de pessoas e instituições. Para ela, o equilíbrio entre liberdade criativa e responsabilidade social passa por práticas como esclarecimento explícito de que o conteúdo é fictício, adoção de políticas de transparência, autorregulação com limites éticos claros e educação do público sobre os riscos da desinformação, mesmo em conteúdos de humor.
Enfatiza, ainda, que o desenvolvimento e uso responsável dessas ferramentas, com empatia e consciência do alcance social, é o ponto central para equilibrar criatividade e responsabilidade. Di Gianni finaliza destacando a importância do diálogo e da regulamentação colaborativa para proteger a liberdade criativa sem deixar de garantir a segurança e a ética no uso da IA: “Não se trata apenas de proibir, mas de criar mecanismos que incentivem a transparência e o uso responsável da IA, protegendo tanto a liberdade criativa quanto a sociedade dos possíveis danos.”