Algoritmos de policiamento preditivo são racistas. Eles precisam ser desmontados.

Publicado originalmente por MIT Technology Review

Naquela noite, o NBC 6 News at Six de Miami começou com um segmento chamado “Chaos on Campus”. (Há um clipe no YouTube .) “A tensão aumenta na Edison Senior High depois que uma luta por direitos termina em uma batalha com a lei”, disse a transmissão. Corta para imagens de telefone borradas de adolescentes gritando: “O caos que você vê é uma briga total dentro do refeitório da escola.”

A desigualdade e o uso indevido do poder policial não acontecem apenas nas ruas  ou durante tumultos escolares. Para Milner e outros ativistas, o foco agora está onde há maior potencial para danos duradouros: ferramentas de policiamento preditivo e abuso de dados pelas forças policiais. Vários estudos mostraram que essas ferramentas perpetuam o racismo sistêmico , mas ainda sabemos muito pouco sobre como elas funcionam, quem as está usando e com que finalidade. Tudo isso precisa mudar antes que um ajuste de contas adequado possa ocorrer. Felizmente, a maré pode estar virando.

Existem dois tipos amplos de ferramenta de policiamento preditivo. Algoritmos baseados em localização se baseiam em links entre lugares, eventos e taxas históricas de crimes para prever onde e quando é mais provável que os crimes aconteçam, por exemplo, em determinadas condições climáticas ou em grandes eventos esportivos. As ferramentas identificam pontos quentes e a polícia planeja patrulhas em torno dessas denúncias. Um dos mais comuns, chamado PredPol, que é usado por  dezenas de cidades nos Estados Unidos, divide os locais em blocos de 500 por 500 pés e atualiza suas previsões ao longo do dia – uma espécie de previsão do tempo para crimes.

Outras ferramentas se baseiam em dados sobre as pessoas, como idade, sexo, estado civil, histórico de abuso de substâncias e antecedentes criminais, para prever quem tem grandes chances de se envolver em atividades criminosas futuras. Essas ferramentas baseadas na pessoa podem ser usadas pela polícia, para intervir antes que um crime ocorra, ou pelos tribunais, para determinar durante as audiências pré-julgamento ou sentença se alguém que foi preso tem probabilidade de reincidir. Por exemplo, uma ferramenta chamada COMPAS, usada em muitas jurisdições para ajudar a tomar decisões sobre liberdade provisória e condenação, emite uma pontuação estatística entre 1 e 10 para quantificar a probabilidade de uma pessoa ser presa novamente se libertada.

O problema está nos dados dos quais os algoritmos se alimentam. Por um lado, os algoritmos preditivos são facilmente distorcidos pelas taxas de parada. De acordo com dados do Departamento de Justiça dos Estados Unidos, você tem duas vezes mais chances de ser preso se for negro do que se for branco. Um negro tem cinco vezes mais chances de ser parado sem justa causa do que um branco. A prisão em massa na Edison Senior High foi apenas um exemplo de um tipo de resposta policial desproporcional que não é incomum nas comunidades negras…

Veja o artigo completo no site MIT Technology Review


Mais desse tópico: