Chineses afirmam ter criado programa que reconhece criminosos por traços faciais
A maior preocupação em relação à pesquisa são os falsos positivos — isto é, pessoas inocentes sendo identificadas como culpadas — caso a tecnologia venha a ser usada pela justiça.

FYI.

This story is over 5 years old.

Tecnologia

Chineses afirmam ter criado programa que reconhece criminosos por traços faciais

A maior preocupação em relação à pesquisa são os falsos positivos — isto é, pessoas inocentes sendo identificadas como culpadas — caso a tecnologia venha a ser usada pela justiça.

Em uma versão mais bizarra do teste de Voight-Kampff (uma versão do teste de Turing criada para o filme Blade Runner), dois pesquisadores chineses assumiram a tarefa polêmica de deixar um computador julgar a inocência de terceiros. Será que um programa pode identificar um criminoso com base nas suas feições?

No artigo 'Inferência Automática de Criminalidade Via Imagens Faciais', Xiaolin Wu e Xi Zhang, estudantes da Universidade de Jiao Tong, investigaram se um computador pode descobrir os antecendentes criminais de um humano com base apenas em suas características faciais. A dupla diz que seus testes foram bem sucedidos, acrescentando que eles descobriram uma nova regra em relação à "normalidade dos rostos de não-criminosos".

Publicidade

Os pesquisadores descreveram a ideia de algoritmos que podem superar a performance de um ser humano em relação ao reconhecimento facial como "irresistível". Mas, de acordo com uma série de usuários do Twitter e leitores da Hacker News, ao alimentar uma inteligência artificial com dados preconceituosos, os resultados podem ser enviesados. Os pesquisadores, no entanto, afirmam que que as imagens utilizadas na pesquisa não apresentavam variações em relação à raça, gênero, idade ou expressões faciais.

A pesquisa baseou-se na análise de fotos de homens chineses entre 18 e 55 anos, todos eles sem barba, cicatrizes ou outras marcas de identificação. Wu e Zhang salientam que as fotos utilizadas não eram fotos de prisão e que, entre os 730 criminosos, 235 haviam cometido crimes violentos como "assassinato, estupro, agressão, sequestro e roubo".

Os dois afirmam ter retirado, deliberadamente, qualquer "fator humano sutil" do processo de avaliação. Surge, pois, a questão: uma vez que os conjuntos de dados sejam cuidadosamente controlados, é possível excluir a possibilidade de preconceito humano? Wu disse à Motherboard que seus preconceitos não afetaram sua pesquisa. "Na verdade, conseguimos nossos primeiros resultados há um ano. Checamos nossos dados de forma rigorosa e fizemos muitos testes em busca de contra-exemplos, mas não conseguimos encontrar nenhum", disse Wu.

Eis o processo: Xiaolin e Xi alimentaram o algoritmo com fotos de 1.856 homens, dos quais metade eram criminosos condenados, observando em seguida se quaisquer um dos quatro classificadores — cada um baseado num método diferente de análise facial — poderia indicar a incidência de criminalidade.

Publicidade

Os pesquisadores descobriram que os quatro classificadores foram, em larga medida, bem sucedidos, e que os rostos de inocentes e criminosos diferem em aspectos perceptíveis ao computador. Além disso, os pesquisadores concluíram que "a variação entre os rostos de criminosos é significativamente maior do que entre os rostos de não-criminosos".

"Ademais, encontramos algumas características estruturais passíveis de prever a criminalidade, tais como a curvatura labial"

"Todos os quatro classificadores tiveram uma performance consistente, garantindo a validade da inferência de criminalidade automatizada, apesar da controvérsia historicamente ligada ao tema", escrevem os pesquisadores. "Ademais, encontramos algumas características estruturais que podem prever a criminalidade, tais como a curvatura labial, a distância entre os cantos internos dos olhos e o ângulo entre o nariz e a boca". Dentre os classificadores utilizados na pesquisa, a Rede Neural Convolucional foi a mais exata, atingindo um nível de precisão de 89.51%.

"Depois de testes extensivos e validação cruzada vigorosa, demonstramos que, por meio do aprendizado de máquina supervisionado, classificadores faciais podem fazer inferências confiáveis em relação à criminalidade".

Embora Xiaolin e Xi admitam em seu artigo que não são "qualificados para discutir estereótipos sociais", isso não muda o fato de que a aprendizagem automática é capaz de identificar preconceitos e atuar com base neles, como já comprovado por inúmeros casos recentes. Os pesquisadores sabem que estão lidando com um tema polêmico. "Muitos na internet nos acusaram de irresponsabilidade", disse Wu.

Publicidade

No artigo, os pesquisadores citam a afirmação aristotélica de que "é possível inferir o caráter humano a partir de características faciais" — mas eles esquecem que esse julgamento deveria ser feito por psicólogos, e não máquinas. A maior preocupação em relação a esse tipo de pesquisa são os falsos positivos — isto é, pessoas inocentes sendo identificadas como culpadas — especialmente caso esse programa venha a ser utilizado pela justiça. Os pesquisadores afirmam que os algoritmos geraram alguns falsos positivos (identificando não-criminosos como criminosos) e falsos negativos (identificando criminosos como não-criminosos), especialmente quando as fotos foram definidas de forma aleatória.

O artigo foi extremamente criticado na internet. "Pensei que fosse uma piada quando li o resumo, mas parece que o artigo é real", disse um leitor do Hacker News. "Concordo que essa é uma área que deveria ser estudada… Mas para estudar isso você precisa de especialistas em criminologia, fisiologia e aprendizado de máquina, não de duas pessoas seguindo as instruções do Keras sobre como usar uma rede neural para classificar informações."

Outros questionaram a legitimidade do artigo, destacando que um dos pesquisadores possui uma conta de Gmail. "Em primeiro lugar, não acho que isso seja uma sátira. Reconheço que um pesquisador de uma universidade chinesa usando uma conta no gmail seja no mínimo suspeito", escreveu outro leitor do Hackers News.

Wu, no entanto, deu uma resposta a esses críticos. "Muitos questionaram porque eu, membro do corpo docente de uma universidade chinesa, teria uma conta no gmail. A verdade é que eu também leciono na Universidade MacMaster, no Canadá", disse ele à Motherboard.

Tradução: Ananda Pieratti