Metrô de SP é questionado sobre sistema de reconhecimento facial

Ação aberta por seis instituições cobra maior transparência por parte do Metrô

Seis instituições abriram uma ação judicial para cobrar informações do Metrô de São Paulo quanto a implementação de um sistema de reconhecimento facial. A iniciativa pede resultados de estudos sobre impactos da implantação da tecnologia.

A ação foi aberta ontem (10) em conjunto pela Defensoria Pública do Estado de São Paulo e pela Defensoria Pública da União, além do Instituto Brasileiro de Defesa do Consumidor (Idec), Intervozes, Artigo 19 e CADHu (Coletivo de Advocacia em Direitos Humanos).

Essas entidades apontam que o sistema, que vai custar R$ 58,6 milhões, exige um complexo debate público com a divulgação de informações para os usuários do Metrô. Os números mais recentes, de 2018, indicam que o Metrô é usado diariamente por 3,7 milhões de passageiros.

O principal questionamento é em relação ao uso das câmeras, como elas coletarão as imagens dos passageiros e se esses dados biométricos serão tratados como determina a LGPD (Lei Geral de Proteção de Dados), que entra em vigor em agosto.

A ação também questiona quais serão os requisitos de segurança do novo sistema e quais medidas serão adotadas para reduzir riscos de vazamentos de dados. As organizações também querem saber qual será o protocolo do Metrô caso o sistema de reconhecimento facial identifique algum suspeito.

Em julho de 2019 o Metrô publicou a licitação de um sistema com câmeras de reconhecimento facial. A empresa afirmou que, visando aumentar a segurança, instalaria os equipamentos nas estações das linhas 1-Azul, 2-Verde e 3-Vermelha, além das vias, dos pátios Jabaquara, Tamanduateí, Itaquera e Belém, e no Centro de Controle Operacional.

O consórcio Engie Ineo Johnson foi decretado vencedor com uma proposta de R$ 58,61 milhões. Apesar disso, a ação na Justiça pede que o sistema não seja instalado até que o Metrô seja transparente e dê garantias sobre a eficácia do sistema. 

As instituições envolvidas na ação lembram dos “altos índices de erro” de sistemas de reconhecimento facial pelo mundo. O grupo ainda cita o modelo usado pela Polícia Metropolitana de Londres, que teve 81% de alertas equivocados, de acordo com levantamento encomendado pela própria polícia londrina e feito pela Universidade de Essex.

Fonte: Olhar Digital

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

%d blogueiros gostam disto: