quinta-feira, novembro 21, 2024
24.4 C
Vitória
quinta-feira, novembro 21, 2024
quinta-feira, novembro 21, 2024

Leia Também:

Defensoria: reconhecimento facial não deve ser implementado na Serra

Sistema expõe populações mais vulneráveis a violações, aponta a DPEs, que judicializou sua suspensão em Vitória

O uso de câmera de reconhecimento facial como política de segurança pública não deve ser implementado pela Prefeitura da Serra. A orientação foi feita pela Defensoria Pública do Estado (DPES), por meio do Núcleo de Direitos Humanos, que alerta para os graves riscos de violação de direitos humanos que a tecnologia enseja contra as populações mais vulneráveis, especialmente as pessoas pretas e pardas. 

A recomendação ao município, nesta semana, acontece após a judicialização do assunto na Capital. Em julho, a DPES impetrou, em conjunto com a Defensoria Pública da União (DPU), uma ação civil pública pedindo a suspensão de sistema semelhante pela gestão de Lorenzo Pazolini (Republicanos). Na época, o objetivo era impedir a captação de dados biométricos dos cidadãos através do sistema de reconhecimento facial instalado nas ruas da cidade.

Ao acompanhar a implantação de cerco eletrônico de videomonitoramento com essa tecnologia nos municípios do Estado, a Defensoria observa ainda outra fragilidade, que é a necessidade, ainda não garantida, de que os cidadãos sejam informados de que estão sendo monitorados e como é feito o tratamento dessas informações.

“O uso da tecnologia de reconhecimento facial no monitoramento urbano está cercado de polêmicas. Na Europa e em algumas cidades dos Estados Unidos, por exemplo, a tecnologia foi banida por ser considerada intrusiva e não democrática”, assinala a instituição de Justiça. 

“A discriminação [racial e social] é a principal preocupação da Defensoria Pública, que busca não só um entendimento melhor de como funciona a tecnologia, mas também de como os dados são registrados e armazenados. Para a instituição, é preciso um estudo mais aprofundado da eficácia e capacidade doa programas utilizados”, complementa a recomendação.

Riscos não avaliados

Na ação civil pública da Capital, as Defensorias argumentam que “o suposto objetivo de reduzir a criminalidade e aumentar a segurança” está sob ameaça, pois “a Prefeitura não realizou a avaliação dos riscos que a captação desses dados poderá ocasionar à população”. 

O sistema, explicam os defensores, “utiliza dados pessoais sem o consentimento dos seus titulares e sem a devida transparência. Além disso, o projeto pode afetar grupos vulneráveis da sociedade, como pessoas negras e LGBTQIA+, pois o reconhecimento facial é baseado na discriminação algorítmica, tendo um relevante histórico de imprecisão quando se trata de alvos diferentes de homens caucasianos”. 

A ausência de legislação federal a respeito da proteção de dados pessoais na segurança pública é outro ponto que deslegitima a medida, segundo a DPES e a DPU. “Além disso, com a aplicação da Lei Geral de Proteção de Dados (LGPD), seria necessário reconhecer que o dado pessoal é de controle de seu titular, para proteção dos direitos fundamentais de liberdade e de privacidade. Desta forma, o armazenamento e o tratamento de dados pessoais e sensíveis do cidadão devem ser tratados com a máxima cautela”. 

As Defensorias também pedem, na ação, que não sejam instalados novos equipamentos de captura de reconhecimento facial. “Caso seja permitido pela justiça que o município utilize algum sistema de captação e tratamento de dados biométricos, as instituições requerem que a prefeitura demonstre, com clareza, como será programada a taxa de sensibilidade do sistema, apresentando documentos que comprovem a não discriminação de gênero, raça, etnia, cor da pele, idade ou quaisquer outras características que possam influenciar o reconhecimento”, destacam.

Imprecisão 

A instalação do sistema de cerco eletrônico por videomonitoramento foi anunciada pela Prefeitura da Serra no dia 17 maio, com previsão de conclui-lo no dia 15 de julho, alegando que o sistema passou por um estudo e prova de conceito, e possui 95% de precisão.

Não é o que mostram, porém, os estudos e experiências com a tecnologia em outros locais. Quando o sistema de reconhecimento facial foi anunciado em Vitória, em fevereiro deste ano, o pesquisador Pablo Nunes, coordenador adjunto do Centro de Estudo de Segurança e Cidadania (CESeC), no Rio de Janeiro, enfatizou que, quando se trata do uso do reconhecimento facial em vias públicas, alguns fatores são preocupantes. Um deles é a própria natureza desse tipo de tecnologia, que pode ser causadora de erros e violações.

“Esses algoritmos têm, muito deles, vieses raciais muito proeminentes, que fazem com que a taxa de acerto para pessoas negras seja muito menor do que em relação a pessoas brancas. E quando a gente coloca câmeras procurando pessoas com mandado de prisão em aberto, isso se reflete em pessoas negras sendo abordadas, detidas, e muitas vezes levadas à prisão, sem que essa pessoa seja a procurada. Isso aconteceu no Rio de Janeiro e em outros estados também”, disse o pesquisador, na ocasião, ao Século Diário.

Na Capital, as vereadoras Camila Valadão (Psol) e Karla Coser (PT) também questionaram a efetividade da implementação e o gerenciamento das informações. “Em Vitória, não vimos estudos promovidos pelo Executivo Municipal para subsidiar a implementação da referida tecnologia; não localizamos qualquer normativa que regulamente a utilização da ferramenta; não localizamos informações sobre a aquisição, bem como processos e contratos”, disse Valadão.

Karla citou o caso de uma trabalhadora que foi presa pelo erro de um sistema de reconhecimento facial no Rio de Janeiro, confundida como suspeita de praticar homicídio, bem como o caso do ator negro internacional Michael B. Jordan, conhecido por filmes como Pantera Negra, que teve a foto cadastrada na lista de procurados da polícia no Ceará, como suspeito de uma chacina que ocorreu no Estado. 

Em fevereiro, o pesquisador Pablo Nunes citou exemplos da União Europeia e cidades dos Estados Unidos que baniram o uso do reconhecimento facial, justamente por causa desses problemas. “As pessoas precisam saber que elas estão sendo monitoradas e o que está sendo feito com esses dados, quem tem acesso a eles e por quanto tempo. E essa é uma preocupação que não passa pelos projetos que temos acompanhado no Brasil (…) O que a gente tem visto, é que o sistema de reconhecimento facial traz riscos de diversas formas, de várias frentes, e que a sua adoção tem sido feita a despeito dessas problemáticas”, apontou.

Mais Lidas