O Facebook espera aumentar a imparcialidade da IA ​​e diminuir o preconceito compartilhando dados da vida real

Spread the love

O Facebook disse na quinta-feira que está lançando novos dados que podem ajudar os pesquisadores a melhorar os sistemas de inteligência artificial para que sejam menos tendenciosos e mais justos.

A IA já está sendo usada em vários produtos de tecnologia, de carros autônomos a reconhecimento facial. Embora a tecnologia possa tornar nossas vidas mais fáceis, grupos de direitos civis levantaram preocupações de que sistemas enviesados ​​de IA poderiam prejudicar as minorias. Estudos mostram, por exemplo, que os sistemas de reconhecimento facial têm mais dificuldade para identificar mulheres e pessoas de pele mais escura.

Parte do problema pode estar nos dados que os profissionais de tecnologia usam para treinar sistemas de computador.

“Esses preconceitos podem chegar aos dados usados ​​para treinar sistemas de IA, o que poderia amplificar estereótipos injustos e levar a consequências potencialmente prejudiciais para indivíduos e grupos – um desafio urgente e contínuo em todos os setores”, disseram os pesquisadores de IA do Facebook em um blog no Quinta-feira.

Para ajudar a combater a justiça e o preconceito na IA, o Facebook disse que pagou mais de 3.011 pessoas nos Estados Unidos de diferentes idades, gêneros e tipos de pele para falar sobre vários tópicos e às vezes mostrar diferentes expressões faciais. Um total de 45.186 vídeos de pessoas tendo conversas improvisadas foram incluídos neste conjunto de dados conhecido como Conversas Casuais.

Os participantes também forneceram sua própria idade e sexo, o que é provavelmente mais preciso do que confiar em terceiros ou modelo para estimar essas informações. Em vez de usar imagens de um banco de dados público, as pessoas estão sendo questionadas se desejam fornecer seus dados para melhorar a IA e também têm a opção de remover suas informações, disse Cristian Canton Ferrer, um cientista pesquisador de IA do Facebook. “É um ótimo exemplo de conjunto de dados de tipo responsável”, disse ele.

Anotadores treinados também rotularam os tons de pele das pessoas e diferentes condições de iluminação, o que pode afetar a forma como a cor da pele de uma pessoa aparece em um vídeo. Canton Ferrer, que estava usando o portal de bate-papo por vídeo do Facebook , disse que o conjunto de dados pode ajudar os pesquisadores a avaliar se uma câmera alimentada por IA tem mais dificuldade para rastrear alguém com pele escura em uma sala mal iluminada. As pessoas também têm sotaques diferentes, que os alto-falantes inteligentes às vezes têm mais dificuldade em reconhecer.

“Este é um primeiro passo”, disse Canton Ferrer. “Justiça é um tipo de pergunta muito complexa e multidisciplinar, e você não pode responder com apenas um conjunto de dados.”

Deixe uma resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *