Um novo relatório do Cyber Policy, centro de pesquisa da Universidade de Stanford, revelou que plataformas digitais ainda enfrentam dificuldades para lidar com o processo de denunciar imagens de abuso sexual infantil geradas por inteligência artificial para as autoridades.
TEM TECNOLOGIA. Embora classificadores de imagem detectem boa parte desse conteúdo, poucos sistemas indicam se ele é gerado por IA, e as empresas tampouco priorizam incluir essa informação nos relatórios enviados às autoridades, aponta o documento.
Na prática, tudo costuma ser tratado como o mesmo problema, o que dificulta a coleta de palavras-chave que poderiam ajudar autoridades a rastrear a origem desses conteúdos. Os pesquisadores descrevem essa dinâmica como uma “batata quente”, em que a responsabilidade é continuamente transferida até chegar às autoridades.
Persiste entre as plataformas o receio de rotular imagens erroneamente. Há hesitação em incluir interpretações ou “suspeitas” nos relatórios, temendo que imprecisões possam tornar a denúncia inadmissível em tribunal, dificultar acusações ou expor as empresas a responsabilidade legal.
BOA NOTÍCIA. Apesar disso, desde 2024, mais empresas passaram a adotar a política de reportar todo conteúdo suspeito, numa lógica de mitigação: melhor pecar pelo excesso.
Dados analisados pelos pesquisadores indicam que, naquele ano, o número de plataformas denunciando material com componente de IA aumentou consideravelmente em relação a 2023, incluindo grandes empresas de IA generativa, como a Stability AI, criadora do Stable Diffusion.