Reconhecimento Facial: avanço ou retrocesso? A importância de analisar inovações tecnológicas com um olhar crítico

Laila Lorenzon
7 min readFeb 21, 2021
Fonte da imagem

Apesar de ser uma tecnologia revolucionária que facilita o dia a dia de milhares de pessoas, reforçando a segurança em transações bancárias e procedimentos empresariais, permitindo fazer compras e desbloquear seu telefone mais rápido, é preciso ter cuidados e pensar no contexto da aplicação da tecnologia de reconhecimento facial, e também os seus limites. Primeiramente, é importante ressaltar que essa tecnologia ainda está em evolução e portanto pode apresentar falhas em sua concepção, não só no sentido técnico mas também ideológico, que é diretamente influenciado pelo grupo que está por trás de sua criação e automatização, e por isso é extremamente importante sempre analisar inovações tecnológicas com um olhar crítico.

A concepção ideológica de uma tecnologia se refere a quais padrões e construções sociais serão embutidos em sua criação — e consequentemente estarão presentes em sua utilização — que está diretamente relacionado com quem detém o monopólio da produção dessa tecnologia. Atualmente, as maiores produtoras de tecnologias inovadoras e de ponta são empresas estadunidenses localizadas no Vale do Silício, as chamadas Big Techs, mais conhecidas como Amazon, Apple, Google, Facebook e Microsoft. Elas são em sua maioria compostas por homens brancos, que usam seus referenciais para produzirem esse tipo de tecnologia e portanto criam algoritmos pensados para o reconhecimento de rostos, padrões e comportamentos parecidos aos seus. Colocando isso no contexto da tecnologia de reconhecimento facial, isso significa que a base de dados de imagens que esse tipo de inteligência artificial será alimentada no processo de machine learning no qual é treinado sua capacidade de identificação de diferentes rostos e traços faciais — terá uma predominância de rostos de homens brancos. Essa não inclusão de rostos não brancos na concepção de novas tecnologias não apenas evidencia o racismo e machismo presente no interior de empresas de tecnologia como também tem o potencial de massificar preconceitos e estigmas sociais em uma proporção gigantesca.

Isso é possível de se comprovar desde percepções mais sutis, como a predominância de filtros faciais no Instagram que deixam a pele mais esbranquiçada e não se encaixam em rostos negros até casos mais relevantes, como o caso da empresa francesa Idemia, cujo software de reconhecimento facial é utilizado pela polícia em cidades dos EUA, Austrália e França. O Instituto Nacional de Padrões e Tecnologia (NIST, em inglês) realizou uma pesquisa que constatou que dois dos algoritmos mais recentes da empresa francesa, e que também são os mais eficientes, têm mais dificuldade em fazer combinações de rostos de pessoas negras do que de brancas. Seu resultado mostrou que a falsa identificação de mulheres brancas aconteceu uma a cada 10 mil vezes, enquanto com mulheres negras a confusão aconteceu uma a cada mil vezes, sendo 10 vezes mais frequente. Evidenciando não só uma base de dados enviesada no sentido racial mas também no de gênero, visto que nos testes a inteligência artificial teve um número de correspondências falsas muito maior com mulheres negras do que com homens negros. Isso demonstra que possivelmente as imagens utilizadas no banco de dados para treinamento dessa inteligência tem pouquíssimas referências de rostos de mulheres negras, tornando mais difícil sua identificação e as colocando em maior risco de serem falsamente identificadas ou confundidas. Além da pesquisa com os algoritmos da Idemia, o Instituto realizou testes com mais de 50 empresas que apresentaram resultados similares referente aos erros e falsas correspondências, o que evidencia o despreparo que muitos algoritmos considerados avançados ainda possuem, e que mesmo assim não evita sua utilização em larga escala tanto para comércio e smartphones quanto no uso governamental para segurança pública.

Daí vem a necessidade de se questionar se as ferramentas de reconhecimento facial estão prontas para serem usadas de tal maneira e quais consequências seu uso terá à longo prazo, principalmente em situações que podem colocar em risco um rosto já marginalizado pela estrutura social racista que vivemos, com falsas correspondências em bancos de dados policiais que podem resultar em prisões ou condenações errôneas. Infelizmente a possibilidade da reprodução em larga escala de estruturas excludentes é maior do que nunca, e já é uma realidade em alguns lugares. Em Detroit nos EUA, um homem foi detido e passou uma noite na cadeia injustamente devido uma falsa correspondência do sistema de reconhecimento facial que o identificou como o suspeito de um crime que ele não cometeu. Apesar de não haver compensação para esse tipo de ação policial precipitada, felizmente ele foi solto um dia depois, mas esse erro pode ficar cada vez mais difícil de se reparar diante do aumento do uso desse tipo de tecnologia e a falsa sensação de que algoritmos são neutros e não erram.

Mesmo que os algoritmos de visão computacional tenham ficado 25 vezes melhores em encontrar uma pessoa em um grande banco de dados entre 2010 e 2018, isso não significa que a inovação sempre signifique algo positivo que deve ser imediatamente adotado para melhorar e facilitar nossas vidas. Além de precisarmos estar atentos às falhas, como as ressaltadas anteriormente, é necessário se pensar todas as formas que essa tecnologia pode ser utilizada caso não haja uma regulamentação adequada para seu uso. Apesar de ter muitos pontos positivos, o reconhecimento artificial abre brechas para situações em que pode ser usado no sentido de automatizar e acelerar a exclusão de grupos sociais já minoritários, como já vem ocorrendo com os uigures na China.

Os uigures são uma minoria étnica que se concentra no noroeste do país e que há anos estão sofrendo com perseguições do governo por motivos religiosos, devido ao fato de que a maior parte dessa etnia é muçulmana. Essa perseguição que já era institucionalizada, agora está ficando cada vez mais automatizada devido ao uso de reconhecimento facial integrado à rede de câmeras de vigilância em várias cidades do país. Esse tipo de inteligência artificial é programada para reconhecer rostos com traços raciais típicos da etnia uigure em meio à milhares de pessoas circulando nas ruas, e assim que é feita uma correspondência com o perfil desejado, ele é monitorado e diversas informações pessoais são enviadas à polícia chinesa, como registros de trajetos e compras realizados. Mais de 500 mil rostos uigures já foram reconhecidos pela tecnologia de inteligência artificial e centenas de milhares estão sendo enviados para “campos de reeducação” em Xinjiang, cidade que concentra 11 milhões de uigures. O governo chinês afirma que esses campos são centros para lidar com “extremistas religiosos”. Porém, um número crescente de investigações sobre esse cenário têm comprovado que esses centros detém exclusivamente pessoas da minoria étnica contra sua vontade, e relatos de abusos sexuais e psicológicos, torturas e falta de direitos básicos já foram relatados por mais de uma vítima que foram detidas por policiais e obrigados a passarem meses no campo.

Diante de tantos cenários perturbadores, é preciso realizar o questionamento: esse avanço tecnológico pode ser um retrocesso? Olhar tecnologias de inteligência artificial com uma percepção crítica não significa condená-las permanente e banir seu uso, mas sim entender que criações humanas estão sujeitas a falhas e nunca são neutras, portanto é imprescindível analisar todos os cenários e possíveis consequências antes de aderir à aplicação em larga escala dessas ferramentas. Os poucos casos evidenciados nesse texto, que representam uma parcela pequena do que vem ocorrendo no mundo, já demonstram o despreparo e a falta de precisão que os algoritmos das empresas de tecnologia mais avançadas possuem, bem como a forma que eles podem ser usados para automatizar genocídios silenciosos. Não é preciso ir muito longe para perceber os riscos que a implementação em massa de uma tecnologia incompleta pode causar. Aplicativos do governo brasileiro que usam reconhecimento facial para que cidadãos solicitem serviços digitais da União, como Meu INSS, CTPS Digital, Enem, eCAC, MEI, entre outras funções tem uma grande margem de erro que pode resultar na exclusão sistemática de minorias, como negros e transsexuais, que já vivem diariamente excluídos pela sociedade e agora podem ficar literalmente “para fora do sistema”, com falta de acesso à seus próprios documentos e direitos como cidadãos.

Nesse sentido, é importante reconhecer os defeitos e falhas de inovações tecnológicas para que esses possam ser melhoradas antes que coloquem em risco a segurança de mais pessoas. Tecnologias de inteligência artificial evoluíram de uma forma exponencial nos últimos anos, e esse fato aliado a complexidade de seu funcionamento, que ainda é muito abstrato para a maioria das pessoas que não trabalham com isso, trás a sensação de que essas criações serão sempre positivas e vistas unicamente como avanços. Além disso, a sua aplicação no dia a dia nos transporta para uma sensação de estarmos vivendo uma era futurística com máquinas ao nosso dispor para facilitar atividades rotineiras, o que de fato ocorre e é benéfico em muitos casos, mas não significa que será sempre assim. Para contornar esse problema é necessário questionar antes de aceitar permissivamente a introdução de toda e qualquer tecnologia em nossas vidas, e também debater a necessidade da criação de regulamentações no sentido de proteger a segurança de seus usuários e garantir transparência em seu uso, principalmente em questões de segurança pública.

Esse movimento já começou em algumas cidades, como a de São Francisco nos EUA, que foi a primeira a banir o uso de tecnologia de reconhecimento facial pelo governo e a polícia. Como afirmado pelo legislador que apresentou o projeto de lei, Aaron Peskin, “podemos ter uma boa segurança sem um estado de segurança e podemos ter um bom policiamento sem um estado policial”, mostrando a possibilidade de garantir segurança e transparência aos cidadãos sem implementar um estado de vigilância em massa, apesar de ele já ser uma realidade em muitos lugares. Até mesmo as próprias empresas que produzem essa tecnologia, as Big Techs, estão começando a se preocupar com os riscos da aplicação de tecnologias inacabadas e com grandes taxas de erro. O presidente da Microsoft se posicionou publicamente à favor da elaboração de uma regulamentação nacional sobre reconhecimento facial, e o chefe executivo da IBM anunciou que irá parar de oferecer o seu sistema de reconhecimento facial para uso policial devido a necessidade dessas tecnologias passarem por “testes de parcialidade” antes de terem seu uso concretizado. Mesmo que seja importante analisar esses posicionamentos com ressalvas, afinal essas empresas são responsáveis por empurrarem há anos um modelo de progresso baseado em constante vigilância e softwares possivelmente tendenciosos que ferem o direito à privacidade, é preciso reconhecer que tocando nesse assunto, essas empresas conseguem trazer atenção para um debate ainda recente na sociedade. Apenas a desmistificação da visão de inovações tecnológicas sempre atrelada à melhoria na qualidade de vida e conscientização da população sobre seus riscos pode ser capaz de prevenir danos irreversíveis para a sociedade.

--

--

Laila Lorenzon

Relações Internacionais (UFRJ); Fundrasing team (Data-Pop Alliance). por aqui tem: decolonialismo / educação e cidadania digital / cibersegurança / governança