Ir direto ao conteúdo

O desafio de ensinar máquinas a entender o mundo sem reproduzir preconceitos

Pesquisadores identificaram que sistemas 'inteligentes' passaram a ligar a ação de 'cozinhar' muito mais a mulheres que a homens

     

    Assim como buscadores – que tem o Google como seu maior exemplo – não funcionam sob absoluta neutralidade, livres de qualquer viés ou preconceito, as máquinas munidas de inteligência artificial treinadas para identificar e categorizar o que veem em fotos também não funcionam de forma neutra.

    Pesquisadores da Universidade de Virgínia, nos Estados Unidos, fizeram um experimento em julho e descobriram que as máquinas não só assimilam visões estereotipadas do mundo como as reforçam, agravando o problema.

    A equipe de estudiosos usou dois grandes bancos de dados de imagens usadas para treinar sistemas de inteligência artificial. No teste, constataram, por exemplo, que fotos sobre a atividade de se cozinhar eram associadas 33% mais vezes a mulheres do que a homens. Após mais tempo de treinamento, o grau dessa associação estereotipada em relação a mulheres aumentou, chegando a 68%.

    “Isso acaba não só reforçando preconceitos, mas os tornam piores”, disse à Wired o engenheiro Mark Yatskar, que trabalha no Allen Institute for Artificial Intelligence, instituto de pesquisa dirigido pelo cofundador da Microsoft, Paul Allen.

    Como máquinas são treinadas

    Atualmente, os exemplos de softwares dotados de inteligência artificial estão longe dos robôs autônomos e rebeldes imaginados pela ficção científica. Por ora, tratam-se apenas de aplicações capazes de obedecer comandos e, a partir deles, aprender a fazer novas associações com ou sem o auxílio de um “supervisor” humano.

    Há diversas técnicas de se ensinar uma máquina. Uma bastante disseminada é a do “aprendizado profundo” (“deep learning”, em inglês). Uma máquina ganha acesso a uma base de dados com um grande número de imagens rotuladas e passa a perceber padrões e “aprende” a associá-los. Assim, ao expor um sistema de reconhecimento de imagem a uma série de fotos de maçãs devidamente rotuladas, é de se esperar que ao ser submetido a uma nova imagem não-rotulada da fruta, ele a identifique corretamente como sendo uma maçã.

    Outra técnica é o da “predição estruturada”, que classifica um grupo de elementos de uma estrutura (seja uma imagem ou uma frase), em vez de identificá-los isoladamente. Ela permite, por exemplo, a tradução de uma frase de um idioma para outro levando em contato o todo e não a tradução dos termos separadamente. 

    Os problemas começam a aparecer quando a máquina deve interpretar uma imagem com elementos de classes diferentes e associá-los. Em uma foto tirada em uma sala de estar, por exemplo, pode-se exigir que uma máquina identifique objetos comumente associados àquele tipo de ambiente, como um sofá ou uma televisão.

    “No entanto, esses métodos correm o risco de descobrir e explorar preconceitos sociais”, diz a pesquisa, como por exemplo ao ter de associar uma atividade ou um objeto a uma pessoa, homem ou mulher. “Sem devidamente quantificar e reduzir a dependência de tais correlações, a ampla adoção desses modelos pode ter o efeito inadvertido de disseminar esses estereótipos.”

    No caso dos bancos de dados usados pelos pesquisadores da Universidade de Virgínia, com mais de 100 mil imagens, os arquivos são previamente rotulados por humanos, com descrições do seu conteúdo. Em um deles, os pesquisadores testaram o viés de gênero pela atividade em uma imagem (dada em verbo, como “cozinhar”); no outro, pelos objetos envolvidos (uma faca, por exemplo).

    Foto: Reprodução
    Teste de viés de gênero com IA para 'cozinhar': mulher é mais associada, mesmo quando há um homem na imagem
    Teste de viés de gênero com IA para 'cozinhar': mulher é mais associada, mesmo quando há um homem na imagem
     

    “Nossa análise revelou que mais de 45% e 37% dos verbos e objetos, respectivamente, apresentaram viés de gênero numa proporção de dois para um”, diz a pesquisa. É assim que imagens de pessoas fazendo compras ou lavando louça foram mais associadas a mulheres – mesmo quando não era esse o caso –, enquanto outras que mostravam alguém praticando tiro, por exemplo, foram mais ligadas a homens.

    Errar é humano

    A razão do problema, como se tornou claro para os pesquisadores, não é só da máquina e a forma como ela foi programada para analisar e interpretar imagens, mas também o modo como essas imagens são categorizadas antes de serem apresentadas a elas.

    Há pelo menos um caso conhecido que evidencia o choque entre máquinas e correlações envolvendo pessoas. Em 2015, um sistema de reconhecimento de imagem do Google categorizou uma foto de dois amigos – um homem e uma mulher, ambos negros – como sendo “gorilas”. O Google garantiu que tomaria providências para corrigir a falha e disse ainda que há “claramente muito trabalho pela frente com classificação de imagem, e nós estamos avaliando como evitar que erros como esse aconteçam no futuro.”

    Como aponta a Wired sobre os resultados da pesquisa mais recente sobre inteligência artificial, se esses sistemas forem replicados para empresas de tecnologia como Google, Facebook e Amazon, serviços de fotos, assistentes virtuais com câmeras e redes sociais podem passar a reproduzir esses preconceitos.

    O engenheiro Mark Yatskar prevê que, conforme esses sistemas ganham desafios mais complexos, maiores serão os problemas no futuro. Ele propõe imaginar um robô que ao se deparar com alguém na cozinha, ofereça uma cerveja caso seja um homem ou ofereça ajuda com a louça caso seja mulher. “Um sistema que toma uma ação embasada em um preconceito de gênero não pode efetivamente funcionar com pessoas”, diz.

    Soluções para o problema

    Como proposta de solução do problema, os pesquisadores americanos sugerem calibrar melhor o modo como são feitas essas correlações. Tudo isso visando adequar a interpretação de estruturas com mais de um elemento, como fotos.

    “Nosso método resulta em quase nenhuma perda de performance, mas reduz o grau de ampliação de vieses” em até 47,5%, garantem os pesquisadores.

    Todos os conteúdos publicados no Nexo têm assinatura de seus autores. Para saber mais sobre eles e o processo de edição dos conteúdos do jornal, consulte as páginas Nossa Equipe e Padrões editoriais. Percebeu um erro no conteúdo? Entre em contato. O Nexo faz parte do Trust Project. Saiba mais.

    Mais recentes

    Você ainda tem 2 conteúdos grátis neste mês.

    Informação com clareza, equilíbrio e qualidade.
    Apoie o jornalismo independente. Junte-se ao Nexo!