A inteligência artificial permite criar conteúdo na internet, entre eles vídeos com situações inusitadas. Imagine o jogador de um time elogiando a equipe adversária ou o Presidente da República fazendo comentários bizarros. Você acha engraçado? Melhor pensar duas vezes. O deepfake, termo que batiza este tipo de conteúdo, é um problema sério e pode acabar com reputações, confundir eleitores, mexer em tendências de mercado e muito mais.
Por conta desses efeitos, a técnica tem recebido cada vez mais atenção de especialistas e pode ser o tema da redação do Enem – ainda mais em ano eleitoral, quando a manipulação da opinião pública pode trazer votos. Por isso, é importante conhecer bem o assunto e seus principais desdobramentos.
O que é deepfake?
Deepfake é um termo que, em tradução livre, significa “profundamente falso”. Ele se refere aos vídeos feitos por softwares que usam técnicas sofisticadas de inteligência artificial e, a partir de conteúdos reais, são capazes de criar novos produtos sem compromisso com a veracidade. Segundo o relatório Sumsub Identity Fraud Report 2023, o Brasil teve um crescimento de 830% nos vídeos falsos entre 2022 e 2023.
Essa tendência não vem de hoje. Há vários anos, perfis de redes sociais, sobretudo de humor, usavam materiais manipulados por técnicas denominadas de shallowfakes (algo como “superficialmente falsos”). Nesse caso, o vídeo era nitidamente uma montagem e o objetivo era o efeito de sentido causado justamente pela falta de verossimilhança. Um vídeo supostamente gravado pelo jogador Messi, com pouca qualidade, dizendo que prefere o Brasil a Argentina não passa de uma piada, certo?
A novidade (e o problema) é que a inteligência artificial permite reunir diferentes vídeos de uma mesma pessoa em um banco de dados, mapear com extrema precisão os movimentos do rosto e os efeitos vocais, a ponto de que o novo vídeo pareça tão real quanto o primeiro. Aí a situação fica mais séria. Se existe um vídeo falso de um cantor dizendo que odeia seus fãs, e esse vídeo é tecnicamente tão bem feito que fica difícil saber se é real ou criado digitalmente, a questão ganha um contorno mais sensível.
Um problema de segurança
Outra aplicação é o uso de deepfake para simular o reconhecimento facial em bancos digitais. Então, ao se passar pelo usuário real, golpistas usam vídeos criados de modo falso para fazer os movimentos solicitados (aproximar, afastar, sorrir etc) e ganhar acesso à movimentação bancária de clientes de fintechs.
Nesses casos, o problema sai da esfera dos memes e passa a ser uma questão pública relevante, que envolve aspectos políticos, jurídicos, de segurança e sobretudo éticos. Será que o Estado deve regular esses conteúdos? Com que critérios? As empresas proprietárias das mídias sociais são ou não são responsáveis pela desinformação que veiculam? É aí que o Enem pode trazer questões para debate, estimulando o candidato a formular uma saída para o problema.
Como saber se um vídeo é deepfake?
Especialistas garantem que, apesar do refinamento das técnicas atuais, um pente fino seria capaz de descobrir lacunas nos vídeos e identificar que se trata de deepfake, ao menos na maior parte dos casos. O problema é que essa pode ser uma tarefa difícil para as pessoas comuns, que veem e compartilham vídeos cotidianamente, mas não têm um letramento digital sofisticado. Isso já ocorreu em eleições recentes, com impacto direto no resultado.
Por isso, a questão está mais no conteúdo do que na forma. Se você vir um vídeo com um tom esquisito, melhor pôr o pé no freio. Pode ser fake. Nesse caso, a ideia não é o poder público vetar o uso de inteligência artificial, mas pensar em campanhas para educar as pessoas digitalmente e criar uma espécie de protocolo, um código de etiqueta virtual. O Enem poderia desafiar você a criar saídas nesse sentido.
Existe “deepfake do bem”?
A rigor, a tecnologia usada para o deepfake poderia ter aplicações positivas. Assim como você pode mandar um e-mail em mala direta, mudando o nome de cada contato e customizando o conteúdo, por que não fazer isso em vídeo? Qual o problema em a tecnologia permitir criar mensagens a partir de um conteúdo inicial?
Em um exemplo simples, um professor corrige as provas de uma turma e coloca numa tabela palavras-chave relacionadas aos principais acertos e erros de cada aluno. Após isso, o software poderia gravar um vídeo individualizado para cada estudante, explicando os pontos elencados com base no repertório usado com frequência pelo próprio docente.
Outra hipótese: você começa a tomar uma medicação nova e manda uma mensagem para seu médico perguntando se determinado sintoma é esperado nesse cenário. A partir de uma resposta rápida do profissional, o software poderia cruzar os dados do prontuário e da bula do medicamento responder por meio de um vídeo detalhado.
A IA pode ser usada com bons objetivos
Especulações à parte, a Revista de Tecnologia do MIT revela que na China já existe um fenômeno social interessante: criar vídeos deepfake para eternizar os entes queridos falecidos e continuar se relacionando com eles. Um tanto Black Mirror, não? Seja como for, é uma aplicação possível e que pode auxiliar a lidar com luto ao longo do tempo.
Embora pareça estranho “terceirizar” para as máquinas algo que é profundamente humano, na prática isso já ocorre com outros gêneros. Se o ChatGPT pode escrever e-mails para você enviar a seus colegas, por que o mesmo não poderia ocorrer com a plataforma audiovisual?
Se os limites éticos são nebulosos e não é fácil identificar o nível de humanização que se está disposto a abrir mão na vida digital, é ainda mais difícil saber o que fazer nos casos danosos em que o deepfake costuma ser usado. Afinal, a tecnologia existe e são justamente as pessoas interessadas em fazer mau uso do recurso as menos sensíveis a protocolos de aplicação mais responsáveis.
Não se trata de uma saída fácil, e é esse tipo de problema ético que pode ser uma questão disparadora na prova do Enem.
—
Quer ter as melhores opções na hora de escolher a faculdade ideal para o seu futuro? Inscreva-se para o vestibular do Mackenzie!