No final de 2016, a Amazon lançou o Rekognition, um serviço online que usa inteligência artificial para analisar e classificar imagens. No ano seguinte, a empresa começou a oferecê-lo para a polícia: várias cidades dos EUA, como Orlando e Washington County (Oregon), se tornaram usuárias do sistema, que consulta bancos de dados com dezenas de milhões de fotos e consegue reconhecer até 100 pessoas numa só imagem.

Isso despertou o receio de que o Rekognition possa ser usado para monitorar a população e gerou polêmica nos Estados Unidos, onde 70 ONGs assinaram uma carta pedindo à Amazon que pare de fornecer essa tecnologia para uso policial. Mas ele tem uma característica que pode ser ainda pior: é bem impreciso. Uma experiência feita pela American Civil Liberties Union, uma entidade de defesa dos direitos civis, comparou fotos de todos os deputados federais dos EUA a uma base de dados com 25 mil imagens de pessoas que haviam sido presas. O teste custou apenas US$ 12 (pagos à Amazon pelo uso do serviço).

O robô comparou todos os rostos, e afirmou que 28 dos 425 deputados eram criminosos. O engano significa que, na prática, o Rekognition pode levar a polícia a prender as pessoas erradas. Em alguns grupos, como o de deputados afrodescendentes, a margem de erro foi ainda maior – 40% dos parlamentares injustamente acusados eram negros.

A Amazon se defendeu afirmando que a ACLU usou o software de forma errada, e que a polícia não confia cegamente nele (toda identificação feita pelo sistema tem de ser revisada por um humano).

Tags: , , , ,