Câmeras de IA alimentadas pela Amazon usadas para detectar Emoções de Passageiros Desavisados de Trens no Reino Unido

A Network Rail não respondeu às perguntas sobre os testes enviados pela WIRED, incluindo perguntas sobre o status atual do uso de inteligência artificial, detecção de emoções e preocupações com privacidade.

“Levamos a segurança da rede ferroviária extremamente a sério e utilizamos uma variedade de tecnologias avançadas em nossas estações para proteger passageiros, colegas e infraestrutura ferroviária de crimes e outras ameaças”, afirma um porta-voz da Network Rail. “Quando implantamos tecnologia, trabalhamos com a polícia e os serviços de segurança para garantir que estamos tomando medidas proporcionais, e sempre cumprimos a legislação relevante referente ao uso de tecnologias de vigilância.”

Não está claro o quão amplamente a análise de detecção de emoções foi implantada, com os documentos às vezes indicando que o caso de uso deveria ser “visto com mais cautela” e relatórios de estações dizendo que é “impossível validar a precisão”. No entanto, Gregory Butler, CEO da empresa de análise de dados e visão computacional Purple Transform, que vem trabalhando com a Network Rail nos testes, afirma que a capacidade foi descontinuada durante os testes e que nenhuma imagem foi armazenada quando estava ativa.

Os documentos da Network Rail sobre os testes de inteligência artificial descrevem múltiplos casos de uso envolvendo a capacidade das câmeras de enviar alertas automatizados para os funcionários quando detectam determinados comportamentos. Nenhum dos sistemas utiliza tecnologia de reconhecimento facial controversa, que visa associar a identidade das pessoas às armazenadas em bancos de dados.

“Um dos principais benefícios é a detecção mais rápida de incidentes de invasão”, diz Butler, que acrescenta que o sistema de análise de sua empresa, SiYtE, está em uso em 18 locais, incluindo estações de trem e ao longo das pistas. No mês passado, Butler diz que houve cinco casos graves de invasão que os sistemas detectaram em dois locais, incluindo um adolescente recolhendo uma bola das pistas e um homem “passando mais de cinco minutos recolhendo bolas de golfe ao longo de uma linha de alta velocidade”.

Na estação de trem de Leeds, uma das mais movimentadas fora de Londres, há 350 câmeras de CCTV conectadas à plataforma SiYtE, diz Butler. “A análise está sendo usada para medir o fluxo de pessoas e identificar problemas como aglomeração em plataformas e, é claro, invasão – onde a tecnologia pode filtrar os trabalhadores da pista através de seu uniforme de EPI”, diz. “A inteligência artificial ajuda os operadores humanos, que não podem monitorar todas as câmeras continuamente, a avaliar e abordar riscos e problemas de segurança prontamente.”

Os documentos da Network Rail afirmam que as câmeras usadas em uma estação, Reading, permitiram à polícia acelerar investigações sobre roubos de bicicletas, podendo identificar bicicletas nas imagens. “Ficou estabelecido que, embora a análise não pudesse detectar com confiança um roubo, ela poderia detectar uma pessoa com uma bicicleta”, dizem os arquivos. Eles também afirmam que novos sensores de qualidade do ar usados nos testes poderiam economizar tempo dos funcionários ao realizar verificações manualmente. Uma instância de inteligência artificial utiliza dados dos sensores para detectar “piso suado”, que ficou escorregadio com condensação, e alertar os funcionários quando precisam ser limpos.

Embora os documentos detalhem alguns elementos dos testes, especialistas em privacidade expressam preocupação com a falta geral de transparência e debate sobre o uso de inteligência artificial em espaços públicos. Em um documento projetado para avaliar questões de proteção de dados com os sistemas, Hurfurt da Big Brother Watch diz que há uma “atitude displicente” em relação às pessoas que possam ter preocupações com a privacidade. Uma pergunta diz: “Algumas pessoas provavelmente vão se opor ou achar isso intrusivo?” Um funcionário escreve: “Tipicamente, não, mas não há como prever algumas pessoas.”

Ao mesmo tempo, sistemas de vigilância de inteligência artificial semelhantes que utilizam a tecnologia para monitorar multidões estão sendo cada vez mais usados em todo o mundo. Durante os Jogos Olímpicos de Paris na França ainda este ano, a vigilância por vídeo com inteligência artificial vai monitorar milhares de pessoas e tentar identificar enchentes de multidão, uso de armas e objetos abandonados.

“Sistemas que não identificam pessoas são melhores do que aqueles que fazem, mas me preocupo com uma escorregadia”, diz Carissa Véliz, professora associada de psicologia no Instituto de Ética em IA, na Universidade de Oxford. Véliz aponta para testes de inteligência artificial semelhantes no metrô de Londres que inicialmente borraram o rosto de pessoas que poderiam estar evitando tarifas, mas depois mudaram de abordagem, desfocando fotos e mantendo imagens por mais tempo do que o planejado inicialmente.

“Há um impulso muito instintivo para expandir a vigilância”, diz Véliz. “Os seres humanos gostam de ver mais, ver mais longe. Mas a vigilância leva ao controle, e o controle a uma perda de liberdade que ameaça as democracias liberais.”