Estas entidades exigem que algoritmos respeitem os direitos humanos

Aprendizagem de máquinas tem sido utilizada para determinar quais propagandas exibir na timeline de usuários de redes sociais, assim como criar armas que decidem a quem atacar

 

O nome “aprendizado de máquina” é utilizado em uma série de técnicas empregadas para fazer com que robôs se desenvolvam e atuem sem terem sido explicitamente programadas por humanos.

Essas técnicas têm sido utilizadas, por exemplo, no desenvolvimento dos algoritmos dos mecanismos de busca, ou para determinar quais informações e propagandas devem aparecer na linha do tempo de cada usuário de redes sociais.

O aprendizado de máquina tem sido utilizado para criar algoritmos capazes de pintar arte “criativa”, que convença o público humano de que ela partiu de outros seres humanos.

Ou ainda para criar programas capazes de ler imagens de mapeamento cerebral e determinar quais pacientes pensam em suicídio - algo que psiquiatras não conseguem detectar lendo exames a olho nu.

Elas também têm sido utilizadas para aprender a “ler”, pela disposição de cores e padrões em imagens obtidas por satélite, quais áreas de cidades tendem a ser mais ricas ou mais pobres.

E mais: para desenvolver armas que “decidem por si mesmas” quem, onde e quando atacar.

O fato de que decisões que envolvem vidas humanas estão sendo delegadas para máquinas gera uma série de questões.

É correto que uma máquina que se desenvolveu de forma autônoma, e cujo funcionamento não é plenamente compreendido nem ao menos pelos proprietários, decida o que exibir em uma rede social? E quem deve ser responsabilizado quando uma inteligência artificial violar leis de guerra?

No dia 15 de maio de 2018, entidades defensoras dos direitos humanos se reuniram em Toronto, no Canadá, e publicaram a Declaração de Toronto, um documento que busca criar regras para evitar abusos por parte de sistemas criados com aprendizado de máquina.

O documento foi escrito pela Anistia Internacional e pela Access Now, uma ONG dedicada à liberdade de imprensa, à liberdade de expressão, direitos humanos, segurança digital e privacidade.

Até o momento, foi endossado pela Human Rights Watch e pela Wikimedia Foundation. Veja abaixo os principais pontos da declaração, que afirma que:

“Há um substancial e crescente corpo de evidências que mostra que sistemas de aprendizagem de máquina, que podem ser opacos e incluir processos inexplicáveis, podem facilmente contribuir para para práticas discriminatórias, ou então opacas, se adotados sem as salvaguardas necessárias”

Declaração de Toronto

Divulgada em 15 de maio

Responsabilização

A declaração prevê que é necessário criar mecanismos para que indivíduos por trás das inteligências artificiais que cometem abusos sejam responsabilizados. Ela diz:

“Especialistas jurídicos, da academia e da sociedade civil deveriam poder participar significativamente dessas discussões, criticar e dar conselhos sobre o uso dessas tecnologias. Também é urgente que potenciais danos sejam identificados e abordados, e que mecanismos sejam implementados para responsabilizar aqueles envolvidos em danos”

Há casos recentes que ilustram esse debate. O Facebook vem sendo cobrado por se responsabilizar editorialmente pela profusão de notícias falsas, impulsionadas pelos algoritmos que regem a plataforma. Após um longo embate, a empresa começa a implementar iniciativas para diminuir o alcance dessas notícias.

Direito à igualdade e à não discriminação

O documento cita a legislação internacional a respeito do direito à não discriminação, e exige que esse direito seja respeitado também no que diz respeito ao funcionamento dos algoritmos. O documento também determina que algoritmos devam ser estruturados de forma a diminuir riscos de que sejam discriminatórios.

“A discriminação é definida sob a lei internacional como ‘qualquer distinção, exclusão, restrição ou preferência baseada em qualquer motivo, como raça, cor, sexo, língua, religião, opinião política ou outro tipo de opinião, nacionalidade ou origem social, propriedade, status de nascimento ou outro status’ (...) Todos os atores, públicos e privados, devem prevenir e mitigar riscos de discriminação no desenvolvimento e aplicação de tecnologias de aprendizagem de máquina”

Como algoritmos frequentemente se estruturam lendo o comportamento de seres humanos, eles podem servir para reforçar preconceitos já existentes.

Por exemplo, uma pesquisa publicada em 2015 pela Universidade de Washington mostrou como uma busca no Google Images pelo termo “C.E.O.” mostrava 11% de imagens de mulheres, apesar de 27% das presidentes de empresas americanas serem mulheres nos EUA. Ou seja, ele reforçava a ideia de que presidentes de empresas são homens.

Promover inclusão

O trabalho destaca que sistemas frequentemente são criados com base em dados coletados em locais específicos, e subsequentemente implementados em outros países. Isso pode fazer com que eles funcionem de forma excludente. Por isso, eles deveriam ser desenhados de forma mais inclusiva.

“Sistemas são na maioria das vezes desenvolvidos, aplicados e revisados por atores que estão em grande medida baseados em determinadas regiões e países, com contribuições limitadas de diversos grupos em termos de raça, cultura, gênero e origem socioeconômica. Isso pode produzir resultados discriminatórios”

Por exemplo, se um algoritmo para reconhecimento facial é treinado com base nos rostos disponíveis de funcionários de uma empresa repleta de homens brancos, é possível que ele se torne menos preciso ao reconhecer o rosto de mulheres e de homens negros.

Além disso, a falta de funcionários de outros perfis diminui as chances de que alguém na companhia levante questionamentos sobre esse tipo de problema.

Todos os conteúdos publicados no Nexo têm assinatura de seus autores. Para saber mais sobre eles e o processo de edição dos conteúdos do jornal, consulte as páginas Nossa equipe e Padrões editoriais. Percebeu um erro no conteúdo? Entre em contato. O Nexo faz parte do Trust Project.

Já é assinante?

Entre aqui

Continue sua leitura

Para acessar este conteúdo, inscreva-se abaixo no Boletim Coronavírus, uma newsletter diária do Nexo: