Câmeras em SP vão guardar dados de localização e reconhecimento facial
Pregão eletrônico para contrato dos serviços foi marcado para dia 23
O sistema de 20 mil câmeras que a prefeitura de São Paulo pretende implantar – programa Smart Sampa – fará o armazenamento das informações do sistema de reconhecimento facial em cruzamento com a localização da pessoa. Com isso, será possível saber se alguém esteve em um determinado ponto da cidade e em qual horário.
Os dados ficarão guardados em um sistema que também faz parte dos serviços que devem ser contratados no pregão eletrônico marcado para a próxima terça-feira (23). A instalação da plataforma e dos novos equipamentos terá início após a assinatura do contrato com a empresa vencedora.
+ Operação da PF investiga tráfico de drogas no Aeroporto de Guarulhos
Em agosto de 2022, a prefeitura lançou uma consulta pública sobre o sistema. A previsão anunciada na ocasião era de que a implantação do sistema custaria cera de R$ 70 milhões por ano. Porém, em resposta ao Tribunal de Contas do Município, a Secretaria Municipal de Segurança Urbana apresentou a estimativa, baseada em três orçamentos, de um gasto de R$ 704,6 milhões em cinco anos – o dobro do valor apresentado no ano passado. A concorrência vai priorizar as propostas que tiverem menor preço.
Das 20 mil câmeras que devem ser instaladas na cidade, 1,5 mil devem ser colocadas no perímetro do projeto de intervenção urbana do setor central, segundo a prefeitura,. A área abrange especialmente o centro histórico, nos bairros da Sé e da República, mas também a região expandida dos distritos do Brás, Belém, Pari, Bom Retiro e Santa Cecília. Atualmente, a prefeitura tem, por meio da Companhia de Engenharia de Tráfego, 427 câmeras em toda a cidade.
Reconhecimento facial
O TCM havia suspendido o edital em dezembro do ano passado após receber seis representações em relação a concorrência. A licitação foi liberada no final de abril, após a prefeitura apresentar resposta a 35 pontos levantados durante a análise. Entretanto, segundo nota do tribunal, “durante os votos, os conselheiros demonstraram preocupação com o uso de algoritmos de inteligência artificial para reconhecimento facial, especialmente no que diz respeito à preservação dos direitos e liberdades individuais previstos na Constituição Federal”.
Na nova versão do edital, um dos itens determina que a empresa deverá apresentar um relatório de como reduzir os riscos em relação a análise dos dados coletados pelo sistema. Na matriz de riscos, anexa ao texto do pregão, é apontada a “alta probabilidade” de acesso não autorizado a dados pessoais.
De acordo com o documento, as medidas para conter esses riscos devem seguir as definições da Lei Geral de Proteção de Dados. O texto lembra ainda que “Brasil é um alvo constante de ataques cibernéticos” que podem levar a exposição das informações contidas no sistema.
As informações de reconhecimento facial que, de acordo com o edital, vão permitir identificar pessoas mesmo com o uso de barba, óculos ou diferentes cortes de cabelo, serão usadas para localizar foragidos da Justiça, em cruzamento de informações com outros órgãos, com o Secretaria de Estado da Segurança Pública de São Paulo. Pessoas consideradas suspeitas também poderão ser rastreadas pelas câmeras.
+ Jovens fazem propostas para reduzir violência policial em São Paulo
O TCM também questionou a prefeitura sobre os riscos da tecnologia violar os direitos de cidadãos, especialmente pessoas negras. A primeira versão do texto divulgado pela administração municipal dizia que o monitoramento seria feito a partir de características como “cor, face, roupas, forma do corpo/aspecto físico”. Na atual, o edital diz que serão usadas informações como “cor predominante das roupas, forma do corpo/aspecto físico e outras características”.
O edital aponta ainda como risco de “probabilidade alta” falhas na tecnologia de reconhecimento facial que podem levar a identificação errada de pessoas. Para reduzir esses problemas, o documento apresenta as recomendações de que sejam feitos testes regulares da inteligência artificial e treinamento para melhorar a precisão do sistema. Além disso, a empresa deverá ter políticas e procedimentos claros para lidar com casos desse tipo.
Risco de discriminação
A vereadora Silvia da Bancada Feminista (PSOL) entrou com uma ação civil pública pedindo a suspensão do edital Smart Sampa afirmando que há risco de discriminação com uso da tecnologia de reconhecimento facial. “No Brasil, nas localidades em que essa tecnologia já foi testada, a apurou se que 90,5% das pessoas presas por meio da tecnologia do reconhecimento facial, eram negras”, afirma o texto que pede uma decisão liminar da Justiça de São Paulo contra o sistema.
No embasamento da ação, o mandato destaca ainda que mesmo no relatório do TCM que analisou o edital parece haver pouca preocupação com o tema. “Não há em todo o relatório sequer a menção a palavra raça, e qualquer derivado do radical discriminação aparece somente uma vez, totalmente en passant”, acrescentou.
Em janeiro, o promotor estadual Reynaldo Mapelli Junior instaurou inquérito para apurar o risco de discriminação com uso da tecnologia, especialmente a pessoas em situação de rua.
Em um estudo lançado em 2018, as pesquisadoras Joy Buolamwini, do Instituto de Tecnologia do Massachusetts (MIT), e Timnit Gebru, à época na Microsoft, identificaram que as tecnologias de reconhecimento facial chegavam a ter um índice de erro de 34,7% ao tentar identificar mulheres de pele escura. Entre os homens de pele clara, o percentual, segundo o estudo, era de 0,8%.
Em julho de 2019, uma mulher foi detida por engano na cidade do Rio de Janeiro ao ser identificada pela tecnologia de reconhecimento facial como foragida da Justiça. O caso é mencionado no relatório “Mais câmeras, mais segurança?”, lançado pelo Instituto Igarapé em 2020, analisando as experiências de uso de câmeras associadas a inteligência artificial em Salvador (BA), Campinas (SP) e no Rio de Janeiro.
O estudo alerta para os riscos das identificações erradas, caso a programação não seja feita a partir de uma base de dados diversa de rostos, e de vazamento de dados pessoais. “A possibilidade de prisões e/ou detenções injustas e de perpetuação de práticas discriminatórias é um risco real e iminente”, enfatiza a pesquisa.