Unicamp usa IA para identificar deepfakes e reduzir desinformação
Com 200 pesquisadores no campus de Campinas (SP) e outros 350 colaboradores espalhados pelo mundo, o laboratório de inteligência artificial (IA) da Unicamp – chamado recod.ai – disputa em uma corrida de “gato e rato”: criar técnicas para identificar falsificações digitais e reduzir os impactos da desinformação na sociedade.
“A gente treina algoritmos para competir nesse jogo de gato e rato, mas a partir do momento que você cria um algoritmo novo de detecção, já tem outro grupo tentando criar outra IA melhor para geração”, diz o coordenador do recod.ai, Anderson Rocha.
Ou seja, se de um lado há quem use IA para criar rostos, cenários e vozes falsos em minutos, do outro existem sistemas treinados por pesquisadores para descobrir cada detalhe que denuncia a fraude. A batalha cotidiana de IA versus IA é uma realidade vivida no laboratório.
O g1 visitou o laboratório, que completa 16 anos em 2025 e é pioneiro e um dos maiores da América Latina, para mostrar como operam algumas das ferramentas de inteligência artificial desenvolvidas lá.
No vídeo que abre a reportagem, você pode conferir o algoritmo atuando na prática contra a desinformação. Abaixo, pode ler os diferentes usos aplicados da tecnologia ao clicar no que deseja conhecer primeiro:
Como a Unicamp usa IA para combater deepfakes
Uma dupla de IAs contra a desinformação
Diversidade nos algoritmos: por que importa
Aplicações da IA do recod.ai na sociedade
“Então, sempre é geração, detecção, geração, detecção. É um jogo de gato e rato, mas até o momento pelo menos a gente não está tão para trás”, completa Rocha, que é professor do Instituto de Computação da Unicamp .
Como a Unicamp usa IA para combater deepfakes
O “deepfake” é o uso de inteligência artificial para criar vídeos, imagens ou áudios falsos extremamente realistas. Para isso, substitui rostos ou vozes de pessoas na tentativa de enganar a percepção humana.
A técnica vem sendo usada, por exemplo, em vídeos pornográficos envolvendo mulheres e até em golpes por mensagens em aplicativos.
Segundo o professor, diferentes ferramentas de inteligência artificial desenvolvidas no laboratório têm detectado as falsificações.
“A gente identifica ataques em SMS, WhatsApp, de alguém pedindo dinheiro fingindo ser um parente, um amigo”, explica Rocha.
Mas, como? Os algoritmos analisam pistas invisíveis ao olho humano. Iluminação, sombras, textura da pele, objetos incoerentes e até ruídos digitais são elementos usados para diferenciar uma imagem real de uma sintética.
Os modelos agem com camadas de pré-processamento, que analisa frame a frame, focando especialmente na região da face. A ferramenta é alimentada com vídeos diversos em sua aprendizagem.
“A textura da pele humana ainda não é perfeitamente imitada pela computação gráfica. Propriedades próximas ao cabelo, aos olhos, à boca, também são difíceis de copiar”, diz Rocha.
Uma dupla de IAs contra a desinformação
Segundo Gabriel Bertocco, outro pesquisador do laboratório, a ferramenta funciona com duas inteligências artificiais em conjunto, que possuem foco nas faces.
O “resultado” vem em formato de porcentagem. Quando maior a porcentagem, maior a chance de a imagem ser falsa. Bertocco explica que, no caso da ferramenta do recod.ai, resultados acima de 10% se tornam suspeitos.
“É preferível o modelo dizer que a imagem é verdadeira quando ele tiver uma certeza muito grande. Qualquer menor sinal de dúvida, se há algum processo de modificação, falsificação ou geração por inteligência artificial, ele já vai indicar uma probabilidade mais alta. Então, acima de 10% já é algo para ficar atento”, explica.
Diversidade nos algoritmos: por que importa
Uma preocupação importante do grupo na criação de algoritmos é o viés. Há críticas contundentes sobre preconceito reproduzido em muitos conteúdos criados por inteligência artificial.
Para não cair nessa armadilha, o grupo buscar ter diversidade, tanto entre os pesquisadores, como nos modelos que irão alimentar a IA.
“Se você treinar um algoritmo só com pessoas brancas e jovens, ele vai falhar com pessoas mais velhas e de outras etnias. Por isso, precisamos de diversidade nos dados, nos algoritmos e nos times que desenvolvem as soluções”, diz Rocha.
O professor reforça ainda a necessidade de ser crítico na forma como lidamos com a tecnologia.
“Estamos vivendo um momento em que a inteligência artificial está aqui para ficar. Enquanto tivermos pensamento crítico, vamos usá-la como inteligência aumentada. Se deixarmos de ser críticos, podemos ser substituídos por ela em diversas atividades.”
Aplicações da IA do recod.ai na sociedade
Os resultados das inteligências criadas no laboratório já foram aplicados em diferentes contextos. Um aluno de doutorado desenvolveu técnicas para ajudar a identificar suspeitos de crimes em estádios de futebol, analisando imagens de várias câmeras ao mesmo tempo. Outro trabalho levou à criação de um algoritmo em uso na Polícia Federal para identificar pornografia infantil.
O laboratório também atua em saúde. Entre os projetos, está o uso de relógios inteligentes para coletar dados biométricos de gestantes em parceria com o Hospital da Mulher da Unicamp (Caism). O objetivo é identificar sinais precoces de diabetes gestacional e até de depressão pós-parto.
Outro estudo permitiu detectar sinais iniciais de doenças como Parkinson, Alzheimer e complicações cardíacas, antecipando diagnósticos e ampliando a janela de tratamento. “Cada vez mais a medicina deixa de ser reativa para se tornar preventiva, graças à coleta de dados sobre o corpo humano”, destaca Rocha.
Laboratório ‘recod.ai’ da Unicamp é o maior da América Latina em pesquisa de inteligência artificial
Estevão Mamédio /g1
VÍDEOS: Tudo sobre Campinas e região
Veja mais notícias da região no g1 Campinas