Mesa redonda “As implicações sociais do reconhecimento facial: o caso da segurança pública”
Por Aymê Brito (Pesquisadora de iniciação científica em Sociologia) e Rodrigo Brandão (Coordenador do OIC e pesquisador da área de Humanidade do C4AI USP-FAPESP-IBM)
O reconhecimento facial e os riscos sociais da sua utilização na segurança pública foram tema de um dos encontros que antecipam a primeira edição do Seminário Internacional “Inteligência Artificial: Democracia e Impactos Sociais”. Organizado pelo OIC – Observatório da Inovação e Competitividade (ligado ao IEA/USP) e pela área de Humanidades do C4AI – Center for Artificial Intelligence (parceria USP-FAPESP-IBM), o evento, que ocorreu no dia 28 de setembro de 2021, contou com a mediação de Rodrigo Brandão, um dos coordenadores do OIC e pesquisador do C4AI, e com exposições da professora e pesquisadora da UFRRJ Lívia Ruback e do pesquisador e membro do grupo de trabalho sobre reconhecimento facial do Conselho Nacional de Justiça (CNJ) Pablo Nunes.
O tema discutido no seminário vem mobilizando um número crescente de pesquisadores e demais atores sociais porque pesquisas e casos recentes revelaram que as tecnologias de reconhecimento facial disponíveis no mercado cometem mais erros quando têm de identificar mulheres e pessoas negras do que quando têm de identificar homens brancos, expondo mais aquelas do que estes a constrangimentos indevidos. Esses erros, afirmou Ruback, estão ligados a vieses presentes no aprendizado de máquina. Conhecida também como “aprendizagem de máquina” ou por sua expressão em inglês “machine learning”, essa tecnologia tem o objetivo de construir algoritmos que aprendam a reconhecer padrões em conjuntos de dados referentes a um determinado fenômeno.
No caso das tecnologias de reconhecimento facial, os algoritmos aprendem a reconhecer “assinaturas faciais”, isso é, padrões geométricos de rostos humanos, como a distância entre os olhos e a distância entre o nariz e a boca. Na sequência, procuram um match entre um rosto específico e todos os rostos que integram um banco de dados de referência, diferente daquele em que os algoritmos foram treinados. Segundo Ruback, boa parte dos vieses que temos presenciado em casos reportados pela mídia e por diferentes pesquisadores deve-se ao fato dos algoritmos serem treinados em bases de dados não representativas da população, o chamado viés de representação. “Obviamente, se o modelo aprende a extrair os padrões de determinadas imagens que predominam nos dados de treinamento, ele vai acertar mais sobre aquele padrão”, explicou a pesquisadora durante o encontro.
Ruback afirmou também que, “numa cultura como a nossa, em que o racismo é histórico e ainda se faz muito presente (…) essa cultura vai acabar gerando dados sistematicamente discriminatórios”. Isso porque nossos padrões sociais e históricos – como os de discriminação contra pessoas negras e mulheres – tendem a se expressar não só na composição dos bancos de dados, ocasionando os vieses de representação (ou de amostra), mas também no modo como os resultados dos modelos de reconhecimento facial são avaliados por seus desenvolvedores e interpretados por quem os utilizam em situações cotidianas e reais, isso é, fora de ambientes controlados, como são os laboratórios.
A partir das considerações de Ruback, pode-se dizer que, em termos concretos, a reprodução de padrões sociais e históricos no funcionamento da tecnologia se dá de diferentes modos. Trata-se, por exemplo, de uma equipe de desenvolvedores que se mostra pouco atenta – ou mesmo pouco preocupada – em construir um banco de dados de treinamento que seja balanceado em termos de raça e de gênero, ou que julga ser eficiente um sistema de reconhecimento facial que demonstra ter precisão de 90% no reconhecimento de rostos de homens brancos, mas de apenas 60% no reconhecimento de rostos de mulheres negras. Trata-se, ainda, de um policial que resolve ignorar as indicações do sistema de reconhecimento facial que apontam para suspeitos que são brancos, mas que decide acatá-las quando apontam para suspeitos que são negros.
Como se vê, os vieses algorítmicos são formados também por elementos históricos e sociais, e não apenas técnicos. Por essa razão, Ruback afirmou não acreditar que tais vieses possam ser completamente corrigidos. Para que eles sejam mitigados, seguiu a pesquisadora, as equipes que desenvolvem tecnologias de reconhecimento facial precisam ser mais inclusivas e diversas do que são atualmente. Além disso, essas tecnologias precisam ser auditáveis e avaliadas com frequência. À título de exemplo, Ruback notou ser difícil conseguir informações gerais ou técnicas sobre os sistemas de reconhecimento facial utilizados na segurança pública brasileira. Por fim, a pesquisadora – que se mostrou otimista em relação à Lei Geral de Proteção de Dados Pessoais (LGPD), por entender que ela pode aumentar a transparência dos sistemas de reconhecimento facial utilizados no Brasil – defendeu que o banimento dessa tecnologia em lugares públicos não representaria um empecilho a seu desenvolvimento, uma vez que as pesquisas em laboratório dificilmente seriam interrompidas.
Nunes também defendeu o banimento da tecnologia ora em tela em locais públicos, e, assim como Ruback, entende que essa medida não prejudicaria futuros aprimoramentos dos sistemas de reconhecimento facial. Nesse contexto, afirmou ser necessário pensarmos que tipo de ônus vamos aceitar para que essa tecnologia avance, e lembrou à plateia que diferentes cidades dos Estados Unidos – como, por exemplo, Nova York, Portaland e São Francisco – já proibiram o uso do reconhecimento facial por suas polícias. Apontou também que, em movimento oposto, a utilização dessa tecnologia por forças policiais vem crescendo no Brasil desde as eleições de 2018, já tendo alcançado mais de 20 estados.
O pesquisador observou ainda que, no país, cerca de 180 prisões já foram feitas a partir de recomendações de sistemas de reconhecimento facial e que, em mais de 90% dos casos, as pessoas detidas eram negras. Indo além, apontou que a utilização da tecnologia na segurança pública carece de protocolos, não havendo clareza, por exemplo, sobre como os policiais devem agir a partir das informações que recebem dos sistemas de reconhecimento facial a que têm acesso. Por fim, Nunes afirmou não haver evidências claras de que a adoção desses sistemas vem surtindo efeitos positivos nos contextos em que são adotados, e também que o poder legislativo – tanto federal, quanto estadual e municipal – tem se mostrado pouco atento aos riscos sociais dos sistemas de reconhecimento facial. Em contrapartida, observou que – em diferentes países, inclusive no Brasil – inúmeras organizações da sociedade civil vêm fazendo o trabalho de monitorar e problematizar tais riscos, evitando, assim, que eles sejam ainda mais acentuados do que já são.
Exposição 1:
Vieses no aprendizado de máquina: tipos, origens e implicações sociais
Lívia Ruback (Universidade Federal Rural do Rio de Janeiro – UFRRJ)
Leitura recomendada:
“Vieses no Aprendizado de Máquina e suas Implicações Sociais: Um Estudo de Caso no Reconhecimento Facial”: Trabalho apresentado durante o II Workshop sobre as Implicações da Computação na Sociedade (WICS 2021), como parte do XLI Congresso da Sociedade Brasileira de Computação (CSBC 2021)
Exposição 2:
O uso do reconhecimento facial na segurança pública
Pablo Nunes (Centro de Estudos de Segurança e Cidadania – CESeC)
Leitura recomendada:
“Novas ferramentas, velhas práticas: reconhecimento facial e policiamento no Brasil”: Capítulo do relatório “Retratos da violência: cinco meses de monitoramento, análise e descobertas – Junho a outubro – 2019” (Rede de Observatórios de Segurança)”.
Moderação:
Rodrigo Brandão (C4AI)
Deixe seu comentário