Avanço da inteligência artificial aumenta a exploração sexual infantil
Um avanço rápido dos programas de inteligência artificial (IA) capazes de gerar imagens realistas levou a um aumento significativo da pornografia infantil e das tentativas de chantagem por parte de criminosos determinados a explorar crianças e adolescentes.
De acordo com Yaron Litwin, CMO e especialista em segurança digital da Canopy, uma solução líder em IA para combater conteúdo digital nocivo, pedófilos estão explorando essas ferramentas em evolução de várias maneiras, frequentemente com o objetivo de produzir e distribuir imagens de exploração sexual infantil pela internet.
Uma das técnicas utilizadas envolve a edição de uma fotografia genuína de um adolescente vestido e transformá-la em uma imagem nua. Em um exemplo real mencionado por Litwin, um garoto de 15 anos interessado em condicionamento físico se juntou a uma rede online de entusiastas de academia. Um dia, ele compartilhou uma foto que mostrava seu peito nu após um treino no grupo. Essa imagem foi tirada, editada para parecer uma foto nua e usada para chantagear o adolescente, que inicialmente achava que sua foto era inofensiva e segura nas mãos dos colegas frequentadores da academia.
Em 2022, grandes sites de mídia social relataram um aumento de 9% em materiais suspeitos de abuso sexual infantil em suas plataformas. Desses relatos, 85% vieram das plataformas digitais da Meta, como Facebook, Instagram e WhatsApp.
Antigone Davis, chefe de segurança da Meta, afirmou anteriormente que 98% do conteúdo perigoso é removido antes que alguém o denuncie à equipe e que a empresa reporta mais materiais de abuso sexual infantil do que qualquer outro serviço.
Segundo Litwin, o processo de edição de imagens existentes com IA se tornou incrivelmente fácil e rápido, resultando frequentemente em experiências terríveis para as famílias. Essa facilidade de uso também se estende à criação de imagens completamente fabricadas de exploração sexual infantil, que não dependem de fotos autênticas.
Como resultado desse avanço, surgem questionamentos sobre as leis estaduais e federais de proteção à criança e pornografia.
Embora agentes da lei e autoridades do Departamento de Justiça afirmem que tais materiais são ilegais mesmo se a criança em questão for gerada por IA, nenhum caso desse tipo foi julgado em tribunal até o momento. Além disso, argumentos legais anteriores indicam que esse conteúdo pode ser uma área cinzenta na legislação dos Estados Unidos.
Outros fatores têm aumentado as preocupações em torno da exploração sexual infantil online. Pedófilos estão usando navegadores especiais para interagir com fóruns e compartilhar guias passo a passo sobre como criar novos materiais ilícitos com facilidade. Essas imagens são então compartilhadas ou usadas para cultivar uma persona falsa online e conversar com crianças, conquistando sua confiança.
Embora a maioria dos programas de IA tenha restrições sobre quais estímulos o sistema irá responder, criminosos estão começando a aproveitar algoritmos de código aberto disponíveis na dark web. Em alguns casos, programas de IA facilmente acessíveis também podem ser enganados, usando palavras específicas e associações para burlar os parâmetros estabelecidos e responder a estímulos potencialmente nefastos.
O grande volume de material gerado por IA dificulta o bloqueio e a filtragem dessas imagens, tornando mais fácil atrair crianças e expô-las a conteúdo prejudicial. No entanto, soluções como a Canopy foram desenvolvidas com 14 anos de treinamento em algoritmos de IA para serem exemplos de IA benéficas.
A Canopy é um aplicativo de proteção digital parental que detecta e bloqueia conteúdo inadequado em milissegundos antes que ele chegue à tela do computador ou telefone das crianças. Além disso, oferece alertas sobre sexting, que ajudam a detectar e prevenir o compartilhamento de fotos inadequadas.
A solução também possui um recurso que impede sua remoção sem permissão.
Resumo da Notícia |
---|
Avanço rápido da IA gera aumento da pornografia infantil e chantagem |
Pedófilos utilizam programas de IA para produzir e distribuir imagens de exploração sexual infantil |
Edição de fotos genuínas com IA é uma técnica utilizada para chantagem |
Grandes sites de mídia social relatam aumento de 9% em materiais suspeitos de abuso sexual infantil |
Processo de edição de imagens com IA se tornou fácil e rápido |
Questionamentos sobre leis de proteção à criança e pornografia surgem |
Pedófilos utilizam navegadores especiais para compartilhar guias de criação de materiais ilícitos |
Criminosos estão aproveitando algoritmos de código aberto disponíveis na dark web |
Grande volume de material gerado por IA dificulta bloqueio e filtragem |
Canopy oferece solução de proteção digital parental com detecção e bloqueio de conteúdo inadequado |
Com informações do site Fox News.