Os sistemas de inteligência artificial são frequentemente criticados pelos preconceitos embutidos. O software de reconhecimento facial, por exemplo, pode falhar ao tentar identificar mulheres e pessoas negras.
Em um esforço para tornar a IA mais eficiente, o Facebook lançou um banco de dados que promete ajudar os desenvolvedores a avaliar se os dados são tendenciosos. A ferramenta inclui informações de um grupo diversificado de participantes pagos que forneceram explicitamente suas próprias idades e gêneros.
A empresa espera que os pesquisadores usem as informações de código aberto, anunciadas na quinta-feira (8), para avaliar se as ferramentas de inteligência artificial funcionam bem para pessoas de diferentes idades, sexos, tons de pele e em diferentes tipos de iluminação.
Segundo a rede social, o material não poderá ser usado para treinar a IA e identificar pessoas por sexo, idade ou tom de pele, pois isso violaria os termos de uso do banco de dados.
O Facebook também lançou esse banco de dados internamente e disse que está “encorajando” as equipes a usá-lo.
Denominado “Casual Conversations”, o banco inclui 3.011 pessoas de todo os Estados Unidos e 45.186 vídeos. O projeto ganhou esse nome porque os participantes foram gravados enquanto davam respostas improvisadas a uma variedade de perguntas pré-escolhidas.
Uma equipe rotulou as condições de iluminação e os tons de pele dos participantes de acordo com a escala de Fitzpatrick, desenvolvida na década de 1970 pelo dermatologista Thomas B. Fitzpatrick para classificar as cores da pele.
De modo geral, embora alguns bancos de dados peçam permissão dos participantes para incluir suas informações, isso não acontece com frequência. Esse tem sido o caso das imagens usadas para construir alguns dos principais conjuntos para o treinamento de software de reconhecimento facial. E empresas de tecnologia, incluindo o Facebook, têm usado o ImageNet, um enorme banco com todos os tipos de imagens (incluindo de pessoas) coletados da internet, para avançar seu progresso em IA.
Por sua vez, o Casual Conversations é composto pelo mesmo grupo de pessoas que o Facebook usou quando encomendou a criação de vídeos para outra pesquisa de código aberto chamada de Deepfake. A empresa esperava que esse levantamento ajudasse a identificar novas maneiras de detectar vídeos manipulados tecnologicamente e impedir que eles se espalhem.
Cristian Canton Ferrer, gerente de pesquisa de IA do Facebook, disse ao CNN Business que o Casual Conversations inclui algumas informações que não foram usadas quando o Facebook criou o conjunto de informações Deepfake.
Canton disse que pagar os participantes — que passaram várias horas sendo gravados em um estúdio — parecia justo, tendo em vista o que o Facebook recebeu algo em troca. Os participantes também poderão pedir para remover suas informações no futuro por qualquer motivo, garante o executivo.
O funcionário afirma que é necessário muito trabalho para tornar os sistemas de IA justos. Ele conta que espera obter feedback de pesquisadores acadêmicos e empresas para que, com o tempo, se tornem mais justos.
Uma área que Canton tem considerando expandir no futuro é a maneira como o gênero tende a ser definido nos bancos de dados. Os computadores normalmente têm a tarefa de ver o gênero de uma forma muito restrita — como rótulos binários de “masculino” ou “feminino”, que podem ser aplicados automaticamente —, enquanto os humanos reconhecem cada vez mais o gênero como algo fluido e que podem mudar com o tempo. No banco de dados do Casual Conversations, os participantes foram solicitados a se identificarem como “masculino”, “feminino” ou “outro”, disse Canton.
“’Outro’ encapsula uma enorme gama de opções”, destacou.
Via-CNN