Ir direto ao conteúdo

Como a tecnologia pune minorias, segundo estes pesquisadores

Livro procura avaliar a extensão e os efeitos da presença da ‘tecnociência carcerária’ na sociedade civil

 

“Em nossa sociedade não temos grandes crimes. Mas temos um campo de detenção cheio de potenciais criminosos”, afirma o protagonista de “The Minority Report”, conto de Philip K. Dick de 1956.

Na história, depois adaptada para o cinema, crimes são previstos por seres mutantes escravizados por uma Divisão de Pré-Crime. Os equivalentes na vida real do “policiamento preditivo” são bem mais científicos. Algoritmos se baseiam em dados históricos para determinar que certas áreas ou indivíduos são mais propensos a crimes do que outros.

A polícia de Los Angeles mantém dois programas deste tipo. No Operation Laser, pessoas com antecedentes criminais recebem pontuações com o propósito de medir a probabilidade de reincidência. Se já foi de gangue, se está em condicional, se já recebeu visita da polícia em casa e se já foi parado na rua são alguns dos itens que contam pontos. Outro programa, PredPol, compila dados de crimes de uma certa área para determinar onde e em qual horário ela necessita de patrulhamento.

Tecnologias que calculam a probiabilidade de crimes transformam vulnerabilidades sociais em fator de risco

Entretanto, organizações de direitos humanos e especialistas em liberdades civis apontam que a aparência tecnológica pode servir de cobertura para vieses humanos, especialmente nos aspectos racial e social. "O algoritmo sempre vai amplificar o sistema de que faz parte. Se o sistema é tendencioso, injusto, então o algoritmo vai replicar isso", declarou Jamie Garcia, um voluntário do grupo ativista Stop LAPD Spying Coalition (Coalizão contra a espionagem da polícia de Los Angeles, em tradução livre), à revista Wired.

O que é a tecno-correção

A discussão é central na coletânea de artigos “Captivating Technologies” (Tecnologias que cativam, em tradução livre), lançada em junho de 2019 pela Universidade Duke, nos EUA. Um dos principais objetivos do livro é avaliar a extensão e os efeitos da presença da “tecnociência carcerária” na sociedade civil.

De acordo com a introdução do livro, a presença de sistemas de vigilância, identificação e avaliação se estende pela “vida cotidiana daqueles que são supostamente livres, envolvendo hospitais, escolas, bancos, agências de serviço sociais, organizações humanitárias, shoppings e a economia de serviços digital”.

O texto, assinado pela editora da obra, a socióloga americana Ruha Benjamin, professora-associada de Estudos Afro-Americanos da Universidade de Princeton, afirma que a tecnologia “ajuda e fortalece o processo pelo qual a carceralidade penetra na vida social”.

Nesse processo, preconceitos raciais e sociais se disseminam por múltiplas áreas. “De algoritmos que realizam análise de crédito a sistemas de monitoramento de locais de trabalho, novas técnicas e dispositivos (...) se apoiam em e aprofundam a desigualdade”, afirma. O resultado é um “contínuo carcerário” que ultrapassa as paredes da prisão.

“De algoritmos que realizam análise de crédito a sistemas de monitoramento de locais de trabalho, novas técnicas e dispositivos (...) se apoiam em e aprofundam a desigualdade”

Ruha Benjamin

Socióloga, Universidade de Princeton

Regiões geográficas também são “algoritmicamente confirmadas” como focos de “indesejáveis” nessa gama de sistemas que pode ser tanto a “plantação sulista, o gueto negro, a favela brasileira, o ‘township’ sul-africano território palestino”, nas palavras de Benjamin.

No texto, a pesquisadora lembra que o primeiro estudo realizado na Califórnia sobre o impacto do monitoramento eletrônico de jovens apontou que muitos jovens acabam reincidindo por “violações técnicas” relacionadas ao próprio sistema de vigilância.

O estudo menciona o caso de um adolescente, em liberdade provisória, e com problemas de cognição, que foi monitorado eletronicamente por sete meses e reencaminhado para a prisão em dez ocasiões separadas. Os motivos eram sempre uma violação de termos da provisória ou do monitoramento, e nunca um novo crime. “Aprendemos que os monitores podem estar direcionando os garotos para o fracasso”, alertou uma pesquisadora.

“Soluções atraentes, ao que parece, produzem novas oportunidades para jovens violarem a lei, e portanto, novas bases para sua penalização. Mas talvez esse seja o objetivo?”, indaga Benjamin. Para a autora, a necessidade de controlar e punir pessoas pobres e racializadas fornece motivação para o “investimento em projetos discriminatórios”.

Benjamin também lançou este ano o livro “Race After Technology” (Raça depois de tecnologia, em tradução livre). Nele aborda muitas das questões presentes na compilação de artigos. Em especial, ela se preocupa com o fato de que “estamos procurando terceirizar as decisões para a tecnologia, no pressuposto de que ela tomará melhores decisões. Estamos vendo isso em quase todas as ��reas - saúde, educação, emprego, finanças - e é difícil encontrar um contexto em que não tenha penetrado”, segundo afirmou ao jornal britânico The Guardian

Os crimes do futuro

Um dos colaboradores da coletânea trata da conexão entre policiamento preditivo e racismo. Tecnologias que calculam a probiabilidade de crimes transformam vulnerabilidades sociais em fator de risco. “Ele traduz as realidades vividas da opressão em uma probabilidade especulativa de algo chamado ‘crime’”, aponta o texto “This is not Minority Report” (Isto não é Minority Report, em tradução livre), do sociólogo Josh Scannell, da Cuny (Universidade da Cidade de Nova York).

Para o autor, programas de computador deste tipo racionalizam a falácia de que “negros, pardos, gays e pobres e os lugares onde vivem são intrinsicamente perigosos para o público em geral”.

Scannell aponta que as áreas dos “pobres perigosos” são assim desenraizadas, ou seja, desconectadas de seu contexto cultural e histórico, e reapresentadas como áreas de missões e focos de crise. O resultado seria uma geografia “imperativa” produzida pela leitura das máquinas e que embasa incursões policiais.

“Um cenário de multivigilância (...) propõe que um indivíduo pode ser observado por um grupo ao mesmo tempo em que observa outro grupo”

Winifred Poster

Socióloga, Universidade Washington, St. Louis

O pesquisador aponta que a rotulagem de áreas em geral tem menos consequências para a polícia do que fazer o mesmo com indivíduos. Segundo ele, “a Suprema Corte americana determinou que os parâmetros para o que constitui suspeita razoável podem ser relaxados em ‘áreas de alta criminalidade’”.

Os vários tipos de vigilância

Quando se fala em vigilância e monitoramento, é uma reação normal imaginar uma situação em que um ente mais forte (governo, empresa, polícia) observa uma maioria com menos poder. Existe também um modelo mental inverso: cidadãos que escrutinam estruturas de poder.

No artigo “Racialized Surveillance in the Digital Service Economy” (Vigilância racializada na economia do serviço digital, em tradução livre), a socióloga Winifred Poster destaca uma terceira possibilidade no âmbito da economia de serviços digital. Graças à popularização de tecnologias de comunicação e acesso à internet, o papel de vigia vem sendo desempenhado por um número muito maior de grupos, em direções diversas e por motivos variados.

“Um cenário de multivigilância (...) propõe que um indivíduo pode ser observado por um grupo ao mesmo tempo em que observa outro grupo”. Poster ressalta como a orientação do indivíduo na questão da raça pode fazer com que o fator racial faça parte de seu monitoramento. Para a autora, usuários estão monitorando outros “em maneiras que apoiam estruturas de poder raciais existentes”. Seria uma situação com antigos precedentes, como, por exemplo, as patrulhas de cidadãos comuns no século 19 que buscavam por escravos foragidos.

Em São Paulo, motoristas de aplicativos de transporte como o Uber que rejeitam corridas com pagamento em dinheiro, por supostamente serem de pessoas sem acesso a um cartão de crédito. Em matéria do Buzzfeed, jovens negros relatam casos de viagens rejeitadas ou canceladas por motoristas do Uber ou 99.

Na era digital, do chamado “capitalismo de plataforma”, sites e aplicativos fornecem estruturas de mediação entre provedores de serviço e usuários (Uber, Airbnb e Facebook estão entre os exemplos mais conhecidos). A autora observa que muitas dessas plataformas estão passando para os consumidores funções como o monitoramento e avaliação do desempenho de empresas e de seus funcionários, que vão de comentários a curtidas.

Todos os conteúdos publicados no Nexo têm assinatura de seus autores. Para saber mais sobre eles e o processo de edição dos conteúdos do jornal, consulte as páginas Nossa equipe e Padrões editoriais. Percebeu um erro no conteúdo? Entre em contato. O Nexo faz parte do Trust Project.

Já é assinante?

Entre aqui

Continue sua leitura

Para acessar este conteúdo, inscreva-se abaixo no Boletim Coronavírus, uma newsletter diária do Nexo: