Em uma prática controversa, câmeras alimentadas por inteligência artificial (IA) da Amazon foram usadas secretamente para detectar as emoções de passageiros desavisados em estações de trem no Reino Unido. Essa iniciativa levanta sérias preocupações sobre privacidade e ética no uso da tecnologia de reconhecimento facial.
3 Principais Destaques:
- Câmeras de IA foram utilizadas para prever idade, gênero e emoções de passageiros em estações de trem no Reino Unido, com a sugestão de que os dados poderiam ser usados para publicidade direcionada.
- A tecnologia de reconhecimento facial da Amazon, Rekognition, foi empregada para analisar imagens capturadas pelas câmeras, levantando preocupações sobre privacidade e vigilância em massa.
- Especialistas alertam que a detecção de emoções por IA é “pouco confiável” e pode nunca funcionar corretamente, levando autoridades a desaconselharem seu uso.
Em uma ampla experimentação supervisionada pela Network Rail, órgão responsável pela infraestrutura ferroviária, as câmeras de IA foram instaladas em oito grandes estações, incluindo Londres, Manchester e outras menores. O objetivo declarado era alertar a equipe sobre incidentes de segurança e potencialmente reduzir certos tipos de crimes.
Sistema de Reconhecimento Facial Alimentado por IA da Amazon
As câmeras inteligentes e os sistemas de nuvem utilizados eram capazes de detectar objetos, movimentos e até mesmo analisar expressões faciais. Um dos casos de uso mais preocupantes foi a “análise demográfica de passageiros”, que usava imagens capturadas perto de catracas para produzir estatísticas de faixa etária, gênero e até mesmo “analisar emoções” como felicidade, tristeza e raiva.
Essas imagens eram enviadas para o sistema de reconhecimento facial da Amazon, o Rekognition, que realiza análises de objetos e rostos. De acordo com os documentos, esses dados poderiam ser utilizados para “medir a satisfação do passageiro” e “maximizar a receita de publicidade e varejo”.
Preocupações com Privacidade e Vigilância em Massa

Especialistas em IA e grupos de defesa das liberdades civis criticaram veementemente os testes, citando falta de transparência, consentimento e debate público sobre o uso da tecnologia de vigilância em espaços públicos. Jake Hurfurt, do grupo Big Brother Watch, declarou que “a implantação e normalização da vigilância por IA nesses espaços públicos, sem muita consulta e conversa, é um passo bastante preocupante”.
Pesquisadores de IA têm repetidamente alertado que usar a tecnologia para detectar emoções é “pouco confiável”. Em outubro de 2022, o órgão regulador de dados do Reino Unido, o Information Commissioner’s Office, emitiu um comunicado público advertindo contra o uso da análise de emoções, afirmando que as tecnologias são “imaturas” e “podem não funcionar ainda, ou talvez nunca”.
Defesa da Network Rail e Uso Contínuo de IA
A Network Rail defendeu o uso da tecnologia, alegando que “leva a segurança da rede ferroviária muito a sério e usa uma variedade de tecnologias avançadas em nossas estações para proteger passageiros, colegas e a infraestrutura ferroviária contra crimes e outras ameaças“. No entanto, não respondeu questionamentos sobre o status atual do uso de IA, detecção de emoções e preocupações com privacidade.
Gregory Butler, CEO de uma empresa parceira na iniciativa, afirmou que a capacidade de detecção de emoções foi descontinuada durante os testes e que nenhuma imagem foi armazenada quando estava ativa. Ele destacou os benefícios da IA para detectar incidentes de invasão de trilhos e auxiliar os operadores humanos.
Implicações Éticas e o Debate sobre Vigilância por IA
Enquanto os documentos detalham elementos dos testes, especialistas em privacidade expressam preocupação com a falta geral de transparência e debate sobre o uso de IA em espaços públicos. Carissa Véliz, professora associada do Instituto de Ética em IA da Universidade de Oxford, adverte sobre uma “inclinação instintiva para expandir a vigilância” e o impacto potencial sobre as liberdades democráticas.
Ao mesmo tempo, sistemas semelhantes de vigilância por IA que monitoram multidões estão sendo cada vez mais utilizados em todo o mundo, como nos próximos Jogos Olímpicos de Paris, onde a videovigilância por IA observará milhares de pessoas.
Conclusão: Equilíbrio entre Segurança e Privacidade
Embora a segurança pública seja uma prioridade legítima, o uso não regulamentado de tecnologias de vigilância invasivas levanta sérias questões éticas e legais. É crucial encontrar um equilíbrio entre a proteção da segurança e o respeito aos direitos individuais à privacidade.
Essa controvérsia destaca a necessidade urgente de um debate público abrangente, transparência por parte das autoridades e a criação de estruturas legais e regulatórias para governar o uso ético da IA em espaços públicos. Caso contrário, corremos o risco de normalizar uma vigilância em massa desenfreada, comprometendo nossas liberdades civis fundamentais.