Racismo automatizado
Desde 2019, a Uber tem uma parceria com a Serpro, empresa de tecnologia da informação do governo federal, para uso da ferramenta de validação biométrica Datavalid. Funciona assim: com autorização do Denatran, o Departamento Nacional de Trânsito, o software verifica informações da CNH e documentos dos carros dos motoristas que querem ou já atuam na empresa. Os dados do serviço público – incluindo as fotos – são cruzados com a base de dados da Uber para verificar as informações.
São checados desde o nome até o endereço do motorista em potencial, e a validação biométrica facial compara a foto do aplicativo à do banco de dados do governo federal. A finalidade, de acordo com a empresa, é garantir que a pessoa que está usando a Uber é de fato a que cadastrou a conta.
Para Bianca Kremer, a parceria reforça que a Uber não pode ser olhada apenas como um serviço de transporte urbano. A empresa é detentora de um expressivo banco de dados com informações relativas à mobilidade de um enorme volume de usuários.
“Não é por acaso que a Uber tem a parceria com a Serpro. Existe um projeto político de mapeamento de práticas de mercado. Quando as pessoas pagam em dinheiro, elas estão apartadas da observação e fiscalização do sistema financeiro tradicional, seja no âmbito privado ou público. É importante fazer outros questionamentos: por que uma empresa pública como a Serpro, detentora de dados da sociedade como um todo, tem parceria com a Uber? Para quem elas querem aplicar segurança? O que eles entendem por segurança?”, questionou Kremer.
Em 23 de maio, a Uber ainda anunciou que usará a ferramenta U-Selfie, ainda em formato piloto, para pedir uma selfie aos usuários que efetuarem corridas com pagamento em dinheiro. De acordo com o blog oficial da empresa, é uma forma de aprimorar a segurança, em resposta a uma solicitação dos motoristas. A Uber diz que as selfies coletadas ficarão registradas nos servidores internos e não serão compartilhadas com os motoristas.
A empresa, no entanto, já responde a processos por falhas em seus sistemas de reconhecimento facial no Reino Unido. No ano passado, um ex-motorista que trabalhou na empresa entre 2016 e 2021 naquele país processou a Uber após ser desligado injustamente. Segundo a ação, o algoritmo de reconhecimento facial automatizado alegou que ele não era ele mesmo – e cancelou sua conta.
Segundo o Sindicato dos Trabalhadores Independentes da Grã-Bretanha, que apoiou a denúncia do ex-motorista, outros 35 foram desligados pelo mesmo tipo de erro, segundo reportou o jornal The Guardian. Ao jornal britânico, no entanto, a Uber refutou veementemente a acusação de racismo, que chama de “infundada”, e afirma que os motoristas podem escolher uma verificação humana para suas contas via plataforma da empresa. Segundo a empresa, ao optar pela detecção automática, pelo menos duas pessoas revisam a decisão antes de remover alguém.
Para Bianca Kremer, os riscos de emprego dessas tecnologias biométricas existem porque elas são produzidas e treinadas em ambientes herméticos, ou seja, sem interferências sociais. Assim, quando encontram o cenário social, que tem pré-compreensões de mundo, diversidades étnicas, preconceitos e opressões, há efeitos na experiência do usuário na ponta – sobretudo para grupos minoritários.
“No geral, a população negra no contexto da tecnologia não tem lugar político de enunciação, seja na produção ou no poder de decisão. Então essa população vivencia o que as empresas chamam de ‘erros e falhas’. E chamo de vieses, pois essas pessoas não são levadas em consideração desde o processo de produção, e isso explica por que as biometrias faciais são problemáticas”, explica Kremer.
Gostou do texto? Contribua para manter e ampliar nosso jornalismo de profundidade: OUTROSQUINHENTOS
Nenhum comentário:
Postar um comentário