Abuso de crianças. Vídeos de inteligência artificial aumentam e são cada vez mais realistas

por Carla Quirino - RTP
Internet Watch Foundation

O mais recente relatório da Internet Watch Foundation alerta que "imagens de abuso sexual infantil geradas por IA progrediram a um ritmo assustador". O avanço da tecnologia está a dar a possibilidade a pedófilos de "adicionar o rosto ou a imagem de outra pessoa a um vídeo real", de forma quase perfeita, que tornam os clips "deepfake altamente realistas".

A capacidade de tornar qualquer cenário uma realidade visual está a ser usada pelos criminosos, que se “gabam num fórum da dark web sobre a possibilidade de “criar qualquer pornografia infantil que desejarmos (...) em alta definição", relata a Internet Watch Foundation (IWF), que identificou os "primeiros exemplos convincentes" de vídeos de IA retratando o abuso sexual de crianças.

Publicado esta segunda-feira, o mais recente relatório da organização IWF, que monitoriza o CSAM – circulação de material de abuso sexual infantil - globalmente, deixa claro que estão a “aumentar os vídeos de feitos por IA à medida que as ferramentas de IA que estão por trás deles se tornam mais difundidas e fáceis de usar”.
“Maior qualidade e realismo”
Cada vez mais realistas, os vídeos deepfake, ou parcialmente manipulados por IA, apresentam rostos – umas vezes de vítimas, outras vezes de outra pessoa - próximos de clips reais, explicam os analistas.

Em 2023, quando a IWF identificou os primeiros conteúdos gerados por IA, a qualidade era mais básica, de acordo com os investigadores. Um ano depois, Dan Sexton, diretor de tecnologia da IWF, afirma que os vídeos futuros tendem a ter “maior qualidade e realismo”.

Ao serem identificados os primeiros vídeos totalmente sintéticos de abuso sexual infantil, a organização sublinha que “os infratores replicaram e partilharam modelos de IA com mais de 100 vítimas de abuso”.Os investigadores da IWF, ao analisarem um fórum da dark web dedicado a material de abuso sexual infantil, encontraram nove vídeos deepfake, que circulavam entre março e abril deste ano.


“Alguns dos vídeos deepfake apresentam pornografia adulta que é alterada para mostrar o rosto de uma criança. Outros são vídeos existentes de abuso sexual infantil que apresentam o rosto de outra criança sobreposto”, explica o relatório.

Como os vídeos originais de abuso sexual são de crianças reais, os analistas da IWF dizem que os deepfakes são especialmente convincentes.

Outro vídeo reportado e definido como "chocante" tem 18 segundos e é totalmente gerado por IA. Foi encontrado na clear web e “mostra um homem adulto a violar uma menina que aparenta ter cerca de dez anos. O vídeo pisca e falha”, mas os analistas da IWF descrevem a atividade como clara e contínua.
Visão sombria do futuro
A CEO da Internet Watch Foundation, Susie Hargreaves OBE, acentua que “a tecnologia de IA generativa está a evoluir em um ritmo tão rápido que a capacidade dos infratores de produzirem, à vontade, vídeos gráficos mostrando o abuso sexual de crianças é bastante assustadora”.

“O fato de que alguns desses vídeos estão a manipular as imagens de vítimas conhecidas é ainda mais assustador. Sobreviventes de alguns dos piores tipos de trauma agora não têm trégua, sabendo que os infratores podem usar imagens do seu sofrimento para criar qualquer cenário de abuso que desejarem”, alerta OBE.

E acrescenta:"Sem controlo adequado, as ferramentas de IA generativas fornecem um playground para predadores online realizarem as suas fantasias mais perversas e repugnantes. Mesmo agora, a IWF está a começar a ver mais desse tipo de material a ser partilhado e vendido em sites comerciais de abuso sexual infantil na internet”.
Tópicos
PUB