Tudo o que é criado pelo homem, em matéria de tecnologia, quase sempre, é para o benefício coletivo, mas, em muitos casos, o sentido original acaba sendo desvirtuado. O mesmo ocorre com a inteligência artificial (IA), que tem a capacidade de produzir infindáveis imagens realistas, e acabou virando ferramenta para a disseminação de pornografia infantil na rede.
Especialista ouvida pelo jornal The Washington Post entende o fenômeno como um moinho de desassossego, já que a publicação de conteúdo meramente virtual pode confundir e atrapalhar as investigações sobre abusos no mundo real.
Rebecca Portnoff, diretora de ciência de dados da Thorn [grupo sem fins lucrativos de segurança infantil], classificou a modalidade como “produção maligna”.
– Imagens de crianças, incluindo o conteúdo de vítimas conhecidas, estão sendo reaproveitadas para essa produção realmente maligna.
Ela alertou que “a identificação da vítima já é um problema de agulha no palheiro, onde a polícia está tentando encontrar uma criança em perigo”.
– A facilidade de uso dessas ferramentas é uma mudança significativa, assim como o realismo. Tudo isso torna o trabalho ainda mais desafiador – observou Rebecca.
O cerne do desafio é o aumento de material criminoso circulando pelas redes e o identificação do que são imagens fabricadas e fotos reais, já que são quase imperceptíveis as diferenças.