As crianças estão tendo suas vidas invadidas por ferramentas de Inteligência Artificial (IA) que usam imagens e detalhes pessoais sem consentimento. Um relatório da Human Rights Watch revelou que mais de 170 fotos e informações privadas de crianças brasileiras foram usadas secretamente para treinar modelos de IA, violando sua privacidade e segurança.
3 Principais Aprendizados:
- Imagens de crianças foram coletadas sem permissão de blogs pessoais e vídeos do YouTube para treinar modelos de IA.
- Essas imagens podem ser usadas para gerar conteúdo inadequado e exploratório envolvendo menores.
- Governos e legisladores precisam agir para proteger as crianças e seus responsáveis contra essa nova ameaça tecnológica.
A privacidade e segurança das crianças estão sendo violadas por uma prática secreta que precisa ser exposta e combatida. Leia este artigo para entender como imagens e detalhes pessoais de menores brasileiros foram usados indevidamente para treinar ferramentas de IA.
O Roubo de Privacidade
De acordo com o relatório da Human Rights Watch, mais de 170 imagens e detalhes pessoais de crianças do Brasil foram reaproveitados sem conhecimento ou consentimento por um conjunto de dados de código aberto e usados para treinar modelos de Inteligência Artificial. Essas fotos foram coletadas de conteúdo postado recentemente, em 2023, e até mesmo de materiais dos anos 90, muito antes que qualquer usuário da internet pudesse prever que seu conteúdo fosse usado para treinar IA.
A Origem das Imagens
As imagens foram raspadas de blogs de maternidade, blogs de pais e até mesmo de vídeos do YouTube com poucos visualizações, aparentemente enviados para serem compartilhados apenas com familiares e amigos próximos. “Apenas observando o contexto em que foram postadas, elas desfrutavam de uma expectativa e uma medida de privacidade”, disse Hye Jung Han, pesquisadora de direitos das crianças e tecnologia da Human Rights Watch. “A maioria dessas imagens não podia ser encontrada online por uma pesquisa reversa de imagem.”
O Repositório Problemático
As imagens foram coletadas pelo repositório de dados Common Crawl, que raspou a web, e os URLs que apontavam para elas foram incluídos no LAION-5B, um conjunto de dados que ajuda a treinar modelos de IA para startups. O LAION-5B, criado pela organização sem fins lucrativos alemã LAION, agora inclui links para mais de 5,85 bilhões de pares de imagens e legendas, de acordo com seu site.
Reação e Consequências
Após a denúncia da Human Rights Watch, o LAION afirma ter removido os links para as imagens identificadas. No entanto, Hye Jung Han adverte que o que foi encontrado é apenas “uma pequena fatia” dos dados e que é provável que imagens semelhantes tenham sido incluídas no conjunto de dados de todo o mundo. Ela também teme que, além de gerar conteúdo inadequado com menores, o banco de dados possa revelar informações sensíveis, como localizações ou dados médicos.
Preocupações com Deepfakes e Conteúdo Explícito
Em dezembro de 2022, pesquisadores da Universidade Stanford descobriram que os dados de treinamento de IA coletados pelo LAION-5B continham material de abuso sexual infantil. O problema de deepfakes explícitos está aumentando, mesmo entre estudantes em escolas dos EUA, onde estão sendo usados para intimidar colegas, especialmente meninas.
Responsabilidade e Regulamentação
“As crianças não deveriam ter que viver com medo de que suas fotos possam ser roubadas e usadas contra elas”, diz Hye Jung Han. Ela acredita que a responsabilidade de proteger crianças e pais contra esse tipo de abuso cabe aos governos e reguladores. O Legislativo brasileiro está atualmente considerando leis para regulamentar a criação de deepfakes, e nos EUA, a representante Alexandria Ocasio-Cortez, de Nova York, propôs o DEFIANCE Act, que permitiria que as pessoas processassem se pudessem provar que um deepfake com sua semelhança foi feito sem consentimento.
Apelo para Ação
“Acho que crianças e seus pais não deveriam ser responsabilizados por proteger os filhos contra uma tecnologia que é fundamentalmente impossível de se proteger”, diz Hye Jung Han. “Não é culpa deles.” Ela apela para que governos e empresas de tecnologia tomem medidas urgentes para impedir que imagens de crianças sejam usadas indevidamente por ferramentas de IA.
O Futuro da Privacidade Infantil
À medida que a tecnologia de IA avança, a privacidade e a segurança das crianças online se tornam cada vez mais ameaçadas. Este relatório chocante destaca a necessidade urgente de proteger os mais vulneráveis de usos indevidos de seus dados pessoais e imagens. Espera-se que legisladores e empresas de tecnologia tomem medidas imediatas para salvaguardar os direitos das crianças no mundo digital.
Conclusão
Este caso alarmante revela como as crianças estão sendo colocadas em risco pela coleta e uso não autorizados de suas imagens e informações pessoais por ferramentas de IA. É necessária ação imediata por parte de governos, empresas de tecnologia e a sociedade como um todo para proteger os direitos e a privacidade dos menores no espaço online. Não podemos permitir que a exploração de crianças se torne um subproduto aceitável do avanço da IA.