O Facebook espera aumentar a justiça da IA ​​e reduzir o preconceito compartilhando dados reais

Spread the love

 

 

O Facebook disse na quinta-feira que novos dados foram divulgados que podem ajudar os pesquisadores a melhorar os sistemas de IA para serem menos tendenciosos e mais justos.

A inteligência artificial já é utilizada em uma variedade de produtos tecnológicos, desde carros autônomos até reconhecimento facial. Embora a tecnologia possa tornar nossas vidas mais fáceis, as organizações de direitos civis levantaram preocupações de que sistemas enviesados ​​de IA poderiam prejudicar as minorias. Por exemplo, estudos mostram que os sistemas de reconhecimento de rosto são mais difíceis de identificar mulheres e pessoas mais escuras.

 

Parte do problema pode ser que os profissionais de tecnologia da computação usem sistemas de computação para treinar.

“Esses preconceitos podem se estender a dados usados ​​para treinar sistemas de IA, o que pode reforçar estereótipos injustos e levar a consequências potencialmente prejudiciais para indivíduos e grupos – um desafio urgente e contínuo em todos os setores”, disseram pesquisadores de IA no Facebook.

Para ajudar a combater a justiça e o preconceito na IA, o Facebook informou que pagou mais de 3.011 pessoas nos Estados Unidos de todas as idades, idades e tipos de pele para falar sobre uma variedade de tópicos e, às vezes, mostrar diferentes expressões faciais. Esse conjunto de dados, conhecido como Chamadas ocasionais, incluiu um total de 45.186 vídeos de pessoas tendo entrevistas espontâneas.

Os participantes também declararam idade e sexo, o que provavelmente é mais preciso do que confiar em terceiros ou modelo para estimar essas informações. Em vez de usar imagens de um banco de dados público, as pessoas são questionadas se desejam compartilhar seus dados para melhorar a IA, e também têm a capacidade de remover as informações, disse Cristian Canton Ferrer, pesquisador de IA do Facebook. “Este é um bom exemplo de coleta de dados responsável”, disse ele.

Os comentaristas treinados também notaram os tons de pele das pessoas e as diferentes condições de iluminação que podem afetar a aparência da cor da pele de uma pessoa no vídeo. Canton Ferrer, que usou o portal de vídeo do Facebook, disse que o conjunto de dados pode ajudar os pesquisadores a avaliar se uma câmera com IA tem mais dificuldade para rastrear uma pessoa de pele escura em uma sala mal iluminada. As pessoas também têm detalhes diferentes que os alto-falantes inteligentes às vezes têm dificuldade em reconhecer.

“Este é o primeiro passo”, disse Canton Ferrer. “Justiça é um tipo de questão muito complexa e interdisciplinar que não pode ser respondida com apenas um conjunto de dados.”

Deixe uma resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *