Graças às ferramentas de IA para gerar gráficos, criar deepfakes fotorrealistas tornou-se muito fácil. E, claro, isso tem suas vantagens: qualquer pessoa pode criar os gráficos de que precisa. O problema é que essa regra também se aplica a criminosos. E quando um gera a imagem de um dragão em seu quintal, outro pode criar um deepfake apresentando brutalidade policial, assassinato ou conteúdo pornográfico com uma pessoa específica, o que já é um grande problema. Essas imagens falsas são um problema crescente e, em breve, não seremos mais capazes de confiar em nossos próprios olhos. Felizmente, o Google está tomando medidas ativas para combater esse fenômeno.
Deepfake do Google gerado por IA
Estamos falando de uma solução abrangente e multicamadas baseada em IA – afinal, às vezes vale a pena combater o fogo com fogo. A primeira das funcionalidades planejadas pelo Google é Informações sobre esta imagem. E embora o nome em si não seja muito cativante, reflete perfeitamente para que serve. Sua finalidade é fornecer um contexto adicional sobre a imagem, como quando a imagem ou algo semelhante foi indexado pelo Google, onde apareceu online pela primeira vez e onde ainda está disponível. Isso permitirá que os usuários identifiquem a fonte original da imagem e o contexto em que ela é usada. Por fim, esse recurso destina-se a ajudar a identificar evidências de refutação que possam ter sido fornecidas por organizações de notícias.
Além disso, o Google não trabalha sozinho. A empresa trabalha com outras plataformas e provedores de serviços para rotular imagens geradas por IA. Entre os parceiros envolvidos no projeto estão Midjourney e Shutterstock, que são algumas das plataformas mais populares que focam apenas na imagem. Aqueles em cooperação com o gigante também devem fazer todos os esforços para revelar o deepfake.
O Google não é o único a segmentar deepfakes
A própria iniciativa do Google parece muito boa. É bom, porém, que também tenha uma concorrência que pode funcionar de maneira um pouco diferente, aumentando assim a eficácia na busca pela verdade. Estamos falando do Truepic, uma solução suportada pela Microsoft. Inclui sistemas que garantem que a imagem não seja alterada desde a sua criação até a entrega aos destinatários. Assim, ficará muito mais difícil processar as fotos que já circulam na web, mas não será impossível.
A luta contra o deepfake é uma corrida armamentista
No entanto, não há necessidade de cair no otimismo excessivo. Kamil Sadkowski, especialista sênior em segurança cibernética da ESET, embora veja o enorme potencial dessas soluções, ressalta que a outra parte ainda não disse a última palavra:
Este é um grande passo na luta contra a desinformação e dados falsos que aparecem online. Todas as ferramentas criadas para reduzir o risco de uso indevido de imagens e informações abrem caminho para uma experiência online mais segura e consciente. Imagens manipuladas não são novidade, mas a velocidade e a facilidade de criá-las são uma grande ameaça nos dias de hoje. Na ausência de ferramentas para verificar a autenticidade e regulamentação no nível legal, qualquer informação adicional que ajude os usuários a tomar as decisões corretas vale ouro. Porém, certamente também haverá formas de burlar as ferramentas planejadas, principalmente pelo uso de inteligência artificial fora das plataformas comumente conhecidas. Portanto, você ainda deve ter muito cuidado, porque a geração de imagens falsas é uma ameaça em constante evolução.
Portanto, as soluções do Google e da Microsoft não devem ser tratadas como o teste final, mas apenas uma sugestão se estamos lidando com um deepfake ou não.