top of page
1e9c13_a8a182fe303c43e98ca5270110ea0ff0_mv2.gif

Alerta Digital por Stenio Santos Sousa - 20/07/2023



Imagens de abuso sexual infantil geradas por IA: uma nova epidemia global?


Seres humanos são complexos. Não há dúvida. Uma indagação que considero justa é a de saber qual a origem dessa fixação que temos por imagens cada vez mais realistas. Teria raízes na psicologia ou na cultura? Parece haver algo de inato, genético, nessa estranha atração. Quiçá um espelhar do Deus que habita em cada um de nós?




Obras icônicas como a “Mona Lisa” e “A Última Ceia”, de Leonardo da Vinci, parecem capturar a alma humana, tal o impressionante realismo que nelas imprime o mestre renascentista italiano. Caravaggio, conhecido por seu uso dramático de luz e sombra, criou obras de arte que eram notáveis por semelhante motivo, a exemplo de “Narciso” (1597-1599), cantado por Caetano Veloso, em Sampa. Ambos os artistas, cada um à sua maneira, elevaram essa forma de arte ao criar obras que continuam a fascinar e inspirar até os dias atuais.




No século XXI, contudo, vemos a crescente ascensão de modelos de inteligência
artificial (IA), com imensa capacidade de capturar o talento humano e reproduzir novas imagens que espelham à perfeição artistas como da Vinci e Caravaggio. Com sua incrível capacidade de memória e uso de técnicas como Redes Adversariais Generativas (GANs), a partir de prompts com descrições textuais, IAs como o Midjourney, tomaram de assalto a grande mídia ao se provarem capazes de gerar imagens que confundem o comum do povo entre o real e o ficcional, a exemplo de fotos falsas do Papa Francisco em casaco branco e estiloso.

Apesar dos muitos benefícios que essa tecnologia traz, não se pode olvidar dos riscos a ela inerentes. Um deles é que, infelizmente, essa incrível capacidade da IA tem sido utilizada para gerar imagens hiper-realistas de abuso sexual infantil, muitas com especial requinte de crueldade e práticas as mais abjetas, as quais são posteriormente disseminadas em fóruns, grupos e outros locais na Internet, incluída a Darknet.
O abuso sexual infantil online é hoje considerado uma epidemia global que tem se intensificado com o avanço da tecnologia. Apesar de poucos estudos que confirmem a tese, há sérios indícios de que a frequente exposição a imagens de abuso atue no organismo humano como um efeito similar ao de drogas, ao produzir pessoas viciadas em busca de mais conteúdo. O uso da inteligência artificial (IA) para a criação dessas imagens ilícitas não apenas amplia o alcance do abuso e do aparente vício que ele causa, mas também dificulta a identificação e a punição dos perpetradores.
A Agência Nacional de Crimes (National Crime Agency – NCA) do Reino Unido estima que 1,6% de sua população adulta, cerca de 830.000 cidadãos britânicos, representam algum grau de perigo sexual para crianças e adolescentes. Ao permitir que imagens falsas, mas hiper-realistas, de abuso sexual sejam criadas, a IA potencializa essa epidemia, em especial porque pode incluir crianças que nunca foram abusadas fisicamente como vítimas potenciais.
No Brasil, a simulação de participação de criança ou adolescente em cena de sexo explícito ou pornográfica, por meio de adulteração, montagem ou modificação de fotografia, vídeo ou qualquer forma de representação visual está prevista como crime no art. 241-C, do Estatuto da Criança e do Adolescente, desde 2008, como efeito da Lei nº 11.829. A pena para essa conduta é de 1 a 3 anos de reclusão e multa e abrange também quem venham a vender, expor à venda, disponibilizar, distribuir, publicar ou divulgar, por qualquer meio, adquirir, possuir ou armazenar esse tipo de material.
Apesar de previsto no art. 9º da Convenção de Budapeste sobre o Crime Cibernético desde 2001, o tipo penal de simulação de imagens de abuso sexual não tem sido muito aplicado em investigações criminais no Brasil. A ascensão de tecnologias geradoras de imagens por meio de inteligência artificial pode vir a mudar esse cenário rapidamente, motivo pela qual as autoridades devem desde já estar atentas.
Como apontado por H. Farid (2021), nem a moderação humana nem a inteligência artificial são atualmente capazes de lidar adequadamente com a propagação de conteúdo prejudicial. Apesar da aplicação da lei ser um desafio diante das imagens realistas criadas por IA, é preciso buscar luz no fim do túnel. Uma alternativa tecnológica, ainda que incipiente, é o uso da técnica de “hashing” para evitar a publicação de imagens ilícitas já identificadas.
Hashing é uma técnica que transforma dados (como um arquivo ou uma senha) em um valor de tamanho fixo, representativo dos originais. Nesse caso, qualquer alteração no arquivo de origem, como a inserção de um pixel em uma imagem, resulta em um hashing completamente distinto. Esse é chamado por Farid de “hard hashing” (hashing rígido, em tradução livre).
Ocorre que há outra forma de hashing mais flexível, denominado de “hashing perceptual”, que é capaz de reconhecer um arquivo como sendo similar a outro já identificado, o que pode ser vantajoso quando há interesse de impedir a publicação de imagens com conteúdo intencionalmente alterado para enganar o sistema de detecção, o que pode auxiliar na limitação da redistribuição de conteúdo multimídia (áudio, imagem e vídeo) ilícito na Internet.
Com a recente promulgação da Convenção de Budapeste sobre o Crime Cibernético, por meio do Decreto 11.491, de 2023, o Brasil se comprometeu ainda mais a cooperar no enfrentamento a essa crescente ameaça cibernética, o que implica estar predisposto no ambiente interno a adotar medidas que podem adentrar em diferentes campos de ação, desde a política criminal, ajustes legislativos e políticas públicas de prevenção que podem incluir incentivos à participação da indústria em parcerias público-privadas e na identificação de multistakeholders.
O fato é que a luta contra o abuso sexual infantil online requer uma abordagem multifacetada. Observar a necessidade de ajustes pontuais na legislação, na medida em que a realidade se impõe e de uma melhor aplicação das leis existentes é um primeiro passo. Precisamos de tecnologia para combater a tecnologia, a exemplo do uso de IA para detectar e remover imagens de abuso. É imprescindível, entretanto, que o Estado incentive e forneça educação digital para pais, crianças e profissionais para que possam reconhecer perigos online e saber como agir preventivamente.
O abuso sexual infantil online é uma ameaça que não podemos ignorar. Com a IA tornando-se cada vez mais sofisticada, a necessidade de ação é mais urgente do que nunca. A proteção de nossas crianças é uma prioridade constitucional absoluta, motivo pelo qual precisamos garantir segurança para todas elas desde já. Além disso, é essencial que haja uma reflexão sobre a regulação do uso da inteligência artificial para evitar a sua utilização para fins prejudiciais.

Referências
BRASIL. Lei nº 11.829, de 25 de novembro de 2008. Altera a Lei no 8.069, de 13 de julho de 1990 - Estatuto da Criança e do Adolescente, para aprimorar o combate à produção, venda e distribuição de pornografia infantil, bem como criminalizar a aquisição e a posse de tal material e outras condutas relacionadas à pedofilia na internet. Diário Oficial da União, Brasília, DF, 26 nov. 2008. Disponível em: <URL>. Acesso em: 14 jul. 2023.
BRASIL. Lei nº 8.069, de 13 de julho de 1990. Dispõe sobre o Estatuto da Criança e do Adolescente e dá outras providências. Diário Oficial da União, Brasília, DF, 16 jul. 1990. Disponível em: < https://www.planalto.gov.br/ccivil_03/leis/l8069.htm>. Acesso em: 14 jul. 2023.
BRASIL. Decreto nº 11.491, de 2023. Promulga a Convenção de Budapeste sobre o Crime Cibernético. Diário Oficial da União, Brasília, DF, 2023. Disponível em: < https://www.planalto.gov.br/ccivil_03/_Ato2023-2026/2023/Decreto/D11491.htm>. Acesso em: 14 jul. 2023.
DODD, V.; MILMO, D. AI could worsen epidemic of child sexual abuse, warns UK crime agency. The Guardian, 18 jul. 2023. Disponível em: https://www.theguardian.com/society/2023/jul/18/ai-could-worsen-epidemic-of-child-sexual-abuse-warns-uk-agency. Acesso em: 18 jul. 2023.
FARID, H. An Overview of Perceptual Hashing. Journal of Open Source Technology, v. 1, n. 1, 2023. Disponível em: https://tsjournal.org/index.php/jots/article/download/24/14. Acesso em: 14 jul. 2023.




bottom of page