Como o reconhecimento facial é uma ferramenta complicada


Enquanto as grandes empresas de TI fazem uma pausa para o desenvolvimento da vigilância com reconhecimento facial, outras competem para comercializá-la.

Quando o movimento Black Lives Matters foi forte e replicado em outros países, a IBM decidiu abandonar completamente o negócio de reconhecimento facial (FR). A Amazon anunciou uma moratória de um ano no uso pela polícia de seu software FR, Rekognition, e a Microsoft afirmou que faria o mesmo até que haja uma lei federal para regulamentar a tecnologia de reconhecimento facial.

Isso foi comemorado por muitos como um passo importante, pois esta tecnologia está rapidamente se tornando uma das ferramentas de vigilância mais poderosas já inventadas. Além das implicações de privacidade de exigir bancos de dados de face massivos para que a tecnologia seja eficaz, demonstrou-se que reforça o viés de raça e gênero.

Como as coisas e o software de reconhecimento facial funcionam

Com as tags personalizadas do Amazon Rekognition, você pode estender os recursos de descoberta do Amazon Rekognition para extrair informações de imagens que são úteis apenas para os seus negócios. Por exemplo, você pode encontrar seu logotipo corporativo nas mídias sociais, identificar seus produtos nas prateleiras das lojas, classificar suas peças de máquina em uma linha de montagem ou identificar seus personagens animados em vídeo.

Em um teste, a ACLU executou recentemente a ferramenta de reconhecimento facial, chamada “Rekognition”, o software correspondia incorretamente a 28 membros do Congresso, identificando-os como outras pessoas que foram presas por um crime.

Com o Amazon Rekognition, você pode identificar milhares de objetos (por exemplo, bicicleta, telefone, prédio) e cenas (por exemplo, estacionamento, praia, cidade). Quando você analisa vídeos, também pode identificar atividades específicas, como “entrega de um pacote” ou “jogo de futebol”, mas qual a precisão das informações enviadas por um software de reconhecimento facial e de coisas?

Em 2019, um estudo de Rekognition realizado pelos pesquisadores Inioluwa Deborah Raji (Universidade de Toronto) e Joy Buolamwini (MIT) concluiu que o software classificou erroneamente o sexo de mulheres de pele mais escura 31,4% (em comparação com 0% para homens com pele mais clara).

E embora seja doloroso que o assassinato de George Floyd e o enorme descontentamento global das grandes empresas questionem como sua tecnologia reflete e contribui para as injustiças sistêmicas, mais tarde é sempre melhor do que nunca. No entanto, muito mais precisa ser feito para corrigir o uso do reconhecimento facial.

Nós somos os usuários que damos a nossa cara em troca de nada e colocamos muito em risco

Igualmente preocupante é o fato de os consumidores estarem divulgando essas informações à medida que integram alegremente a tecnologia FR em suas vidas diárias. Quando se trata de equilibrar a facilidade de uso com preocupações com a privacidade, os consumidores quase sempre escolhem o primeiro. Deixamos nossos dados pessoais nas redes sociais e preferimos sistemas de identificação biométrica a senhas.

Com essa tecnologia inevitavelmente alcançando mãos públicas e privadas, é hora de estabelecer certas barreiras de proteção para proteger a sociedade.

Como a sociedade pode participar do uso legal do reconhecimento facial?

Primeiro, precisamos de um sistema que proteja as liberdades civis: as pessoas devem receber informações claras sobre quando e como a FR está sendo usada. E eles devem ter a opção de recusar e apelar do dano / viés do algoritmo, ou mesmo responsabilizar o fabricante do sistema, não apenas o governo ou a entidade comercial que o utiliza.

Segundo, precisamos melhorar rapidamente a representatividade dos dados que esses sistemas usam e a precisão de suas recomendações. Idealmente, cada empresa deve se comunicar de maneira aberta e ativa sobre como está combatendo os preconceitos inerentes em seus conjuntos de dados e eliminando falsos positivos e negativos. A mídia e a sociedade em geral devem responsabilizá-los. Infelizmente, é provável que os governos exijam que as empresas de tecnologia tornem seus códigos e dados acessíveis às auditorias para que ocorra alguma transparência.

Não há dúvida de que a tecnologia FR está chegando. Muitas das empresas de tecnologia que trabalham lá estão tentando encontrar o equilíbrio certo entre progresso tecnológico, interesses comerciais e ética. Mais do que nunca, é essencial que nós, como cidadãos, usuários e consumidores, os lembremos de manter firmemente o interesse da humanidade no centro da tecnologia que estão construindo e das escolhas estratégicas que estão fazendo. Não precisamos de menos tecnologia, precisamos de mais tecnologia empática e ética.


Publicado em 06/07/2020 17h37

Artigo original:


Achou importante? Compartilhe!


Assine nossa newsletter e fique informado sobre assuntos jurídicos. Preencha seu e-mail no espaço abaixo e clique em “OK”:

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *