Notícias -

Pedófilos usam IA para gerar fotos de crianças e pedem dinheiro em troca de sigilo

23 de Abril de 2024

Organização revela uso de IA para gerar imagens de menores nuas e manipular vítimas a enviar conteúdo mais extremo

Foto: Freepik/ Divulgação

Pedófilos estão sendo encorajados a utilizar recursos de inteligência artificial para gerar imagens de crianças de três a seis anos nuas, para tentar chantageá-las e receber fotos com conteúdo mais extremo e resgate ou até mesmo resgate em dinheiro. As informações são da Internet Watch Foundation (IWF), organização de combate ao abuso infantil.

Um software de IA é usado para remover roupas íntimas de fotos enviadas por uma criança. Em seguida, essa imagem é utilizada para manipular a criança para fazer o envio de outros conteúdos explícitos.

A IWF afirma que há um manual na dark web que tem uma seção que incentiva os criminosos a realizar essa prática. 

"Esta é a primeira evidência que temos de que os criminosos estão aconselhando e encorajando uns aos outros a usar tecnologia de IA para esses fins", disse a IWF.

No ano passado, a organização notificou um aumento nos casos de chantagem, nos quais as vítimas são manipuladas para enviar material gráfico delas mesmas e posteriormente, os criminosos as obrigam a pagar um valor para que as imagens não sejam divulgadas.

Além disso, a IWF ressaltou que o material gerado por IA que mostra esse tipo de abuso é surpreendentemente realista.

Esse manual encontrado na dark web tem 200 páginas e demonstra o orgulho do autor pedófilo por ter chantageado meninas de 13 anos a enviar imagens explícitas a ele. A IWF repassou esse documento para a Agência Nacional de Crimes do Reino Unido.

Ano mais extremo

A IWF também afirmou que 2023 foi "o ano mais extremo registrado" em relação ao abuso infantil. O relatório anual da organização mostra que mais de 275 mil páginas online com abuso sexual infantil foram encontradas no último ano, o maior número já registrado pela IWF.

Conforme o relatório, o total inclui um número recorde de materiais classificados como "categoria A", que é composto de imagens extremamente graves, como estupro, sadismo e bestialidade. 

Ainda, a organização achou 2,4 mil imagens com abuso sexual infantil, mas que foi gerado pela própria criança, na situação que as vítimas são manipuladas ou ameaçadas a gravar o abuso de si mesmas. As fotos e vídeos foram feitos por crianças com idades entre três e seis anos. Os analistas observaram que o abuso ocorreu em ambientes domésticos, incluindo quartos e cozinhas.

A diretora executiva da IWF, Susie Hargreaves, disse ao The Guardian que os criminosos que aguardam a oportunidade perfeita para manipular crianças não são uma ameaça distante. "Se crianças com menos de seis anos estão sendo alvo disso, precisamos começar com conversas apropriadas para a idade delas desde já, para garantir que elas saibam como reconhecer os perigos", afirmou.

Comentários
Assista ao vídeo