Ciência

ALGORITMOS PREVENDO CRIMES

Algoritmos de computador podem superar as pessoas na previsão de quais criminosos serão presos novamente, descobriu um novo estudo.

Os algoritmos de avaliação de risco que prevêem crimes futuros geralmente ajudam os juízes e as juntas de condicional a decidir quem fica atrás das grades. Mas esses sistemas foram criticados por exibir preconceitos raciais, e algumas pesquisas deram motivos para duvidar de que os algoritmos sejam melhores em prever prisões do que os humanos.

Um estudo de 2018 que opôs voluntários humanos à ferramenta de avaliação de risco COMPAS descobriu que as pessoas previram reincidência criminal tão bem quanto o software.

O novo conjunto de experimentos confirma que os humanos prevêem infratores reincidentes, assim como algoritmos, quando as pessoas recebem feedback imediato sobre a precisão de suas previsões e quando são mostradas informações limitadas sobre cada criminoso. Mas as pessoas são piores do que os computadores quando os indivíduos não recebem feedback ou quando são mostrados perfis de criminosos mais detalhados.

Na realidade, os juízes e as juntas de condicional também não recebem feedback instantâneo e geralmente têm muitas informações para trabalhar na tomada de decisões. Portanto, as descobertas do estudo sugerem que, sob condições de previsão realistas, os algoritmos superam as pessoas na previsão de reincidência, relatam os pesquisadores online em 14 de fevereiro na Science Advances.

O cientista social da computação Sharad Goel, da Universidade de Stanford, e seus colegas começaram imitando a configuração do estudo de 2018. Voluntários online lêem breves descrições de 50 criminosos – incluindo recursos como sexo, idade e número de prisões anteriores – e adivinham se cada pessoa provavelmente será presa por outro crime dentro de dois anos. Após cada rodada, os voluntários foram informados se acertaram. Como visto em 2018, as pessoas rivalizavam com o desempenho do COMPAS: preciso cerca de 65 por cento das vezes.

Mas em uma versão ligeiramente diferente dessa competição entre humanos e computadores, a equipe de Goel descobriu que o COMPAS tinha uma vantagem sobre as pessoas que não recebiam feedback. Neste experimento, os participantes tiveram que prever qual dos 50 criminosos seria preso por crimes violentos, ao invés de qualquer crime.

Com feedback, os humanos realizaram esta tarefa com 83 por cento de precisão – perto dos 89 por cento do COMPAS. Mas sem feedback, a precisão humana caiu para cerca de 60 por cento. Isso porque as pessoas superestimaram o risco de criminosos cometer crimes violentos, apesar de terem sido informados de que apenas 11 por cento dos criminosos no conjunto de dados caíram neste campo, dizem os pesquisadores. O estudo não investigou se fatores como preconceitos raciais ou econômicos contribuíram para essa tendência.

Em uma terceira variação do experimento, os algoritmos de avaliação de risco mostraram uma vantagem quando dados perfis de criminosos mais detalhados. Desta vez, os voluntários enfrentaram uma ferramenta de avaliação de risco chamada LSI-R. Esse software pode considerar 10 fatores de risco a mais do que o COMPAS, incluindo abuso de substâncias, nível de educação e situação profissional. LSI-R e voluntários humanos classificaram os criminosos em uma escala de muito improvável a muito provável de reincidência.

Quando mostrados perfis de criminosos que incluíam apenas alguns fatores de risco, os voluntários tiveram um desempenho semelhante ao do LSI-R. Mas, quando mostradas descrições criminais mais detalhadas, o LSI-R venceu. Os criminosos com maior risco de serem presos novamente, conforme classificado pelas pessoas, incluíam 57 por cento dos reincidentes reais, enquanto a lista do LSI-R dos presos mais prováveis ​​continha cerca de 62 por cento dos reincidentes reais no pool. Em uma tarefa semelhante que envolvia prever quais criminosos não seriam apenas presos, mas encarcerados novamente, a lista de humanos de maior risco continha 58 por cento dos reincidentes reais, em comparação com 74 por cento do LSI-R.

O cientista da computação Hany Farid, da Universidade da Califórnia, Berkeley, que trabalhou no estudo de 2018, não se surpreende com o fato de os algoritmos ganharem vantagem quando os voluntários não recebem feedback e têm mais informações para manipular. Mas só porque os algoritmos superam os voluntários não treinados não significa que suas previsões devam ser automaticamente confiáveis ​​para tomar decisões na justiça criminal, diz ele.

Oitenta por cento de precisão pode parecer bom, Farid diz, mas “você tem que se perguntar, se você está errado 20 por cento das vezes, você está disposto a tolerar isso?”

Uma vez que nem os humanos nem os algoritmos mostram uma precisão incrível em prever se alguém cometerá um crime dois anos depois, “deveríamos usar [essas previsões] como uma métrica para determinar se alguém será libertado?” Farid diz. “Meu argumento é não.”

Talvez outras questões, como a probabilidade de alguém conseguir um emprego ou saltar sob fiança, devam influenciar mais as decisões da justiça criminal, sugere ele.

Agência Difusão

Share
Published by
Agência Difusão
Tags: Algoritmos

Recent Posts

21 LIÇÕES PARA O SÉCULO 21

21 lições para o século 21 explora o presente e nos conduz por uma fascinante…

8 meses ago

ARRECADAÇÃO TEM O MELHOR RESULTADO DESDE 1995

A arrecadação federal de impostos alcançou R$ 186,5 bilhões em fevereiro de 2034, o melhor…

8 meses ago

PAUTA VERDE E PROCESSOS ADMINISTRATIVOS

Projetos da chamada pauta verde, de transição energética, e as propostas legislativas de modernização dos…

8 meses ago

A VOLTA AO ANO EM 40 FILMES

2023 vai indo embora e, no folhear da agenda para rever fatos transcorridos, a impressão…

11 meses ago

O PODER DO LIKE

Difícil começar o dia - e a coluna - com o tanto de notícia ruim…

1 ano ago

ALEXA, TRAGA-ME UM AMOR

Recentemente, no último South by Southwest - festival norte-americano de inovação e tecnologia - o…

1 ano ago