Ir direto ao conteúdo

Como os robôs da Wikipédia são um alerta para pesquisadores de inteligência artificial

Estudo sugere que a imprevisibilidade e longa duração dos conflitos entre ‘bots’ editores da enciclopédia deveriam nortear pesquisas sobre tecnologias como os carros autônomos

Entre os dias 25 e 27 de fevereiro de 2011, o artigo da Wikipédia “Arnold Schwarzenegger” sofreu 19 alterações. Não eram fãs acrescentando informações, eram robôs, criados por usuários da própria Wikipédia, que disputavam qual edição iria prevalecer. Um robô colocava um link no verbete. Em seguida, outro robô o tirava, num vaivém que durou três dias. Veja a sucessão de alterações na imagem abaixo:

Foto: Reprodução
Durante três dias, os robôs disputaram entre manter ou excluir um link no verbete sobre o ator Arnold Schwarzenegger

Os robôs da Wikipédia são linhas de código criadas por usuários para resolver pequenos problemas de edição, como palavras mal traduzidas, grafias erradas ou para acrescentar links a verbetes. A questão é que, não raro, um robô é programado de um jeito que entra em conflito com a programação de outro, causando as “guerras”.

O estudo “Até robôs bons brigam: o caso da Wikipédia”, realizado por pesquisadores do Instituto de Internet de Oxford, da Universidade de Oxford (Reino Unido), sugere que esses robôs reagem de maneiras diferentes dependendo do idioma em que são desenvolvidos e que atuam. Os confrontos entre os “bots”, como são conhecidos, podem se estender por anos.

As diferenças culturais dos programadores são ressaltadas pelo estudo. Elas são pontos chave para se compreender os confrontos entre robôs da Wikipédia. Os pesquisadores concluíram que, no geral, as brigas acontecem majoritariamente entre os “bots” responsáveis por adaptar textos de um idioma para outro.

Isso não significa que há um erro na programação. Expõe, apenas, a dificuldade em se criar um robô que atue de maneira padronizada sem esbarrar em idiomas que seu programador não fala ou critérios de outro programador.

O texto atribui essas diferenças de critérios, que acabam gerando as disputas, aos programadores. Ainda que um “bot” atue na mesma função e tenha sido projetado no mesmo idioma de outro, as linhas de código podem ser diferentes e, portanto, também serão distintos os critérios para manter ou remover um link ou palavra de um verbete.

“A falta de coordenação pode acontecer devido a diferentes edições de línguas com regras e convenções de grafia ligeiramente diferentes”, diz o estudo.

Uma das disputas mais ferozes, segundo o jornal britânico “The Guardian”, aconteceu entre os “bots” alemães Xqbot e WikitanvirBot. Entre 2009 e 2010, os dois duelaram em mais de 3.600 verbetes. Responsável por entrar em diversos artigos e corrigir links quebrados ou palavras repetidas, o Xqbot desfez as edições de WikitanvirBot (que tem a mesma função) pelo menos 2.000 vezes. Em contrapartida, WikitanvirBot invalidou cerca de 1.700 alterações do rival. Entre os verbetes que serviram de campo de batalha para os dois estava o de Arnold Schwarzenegger.

Os robôs de língua portuguesa estão entre os mais competitivos e, ao longo dos primeiros dez anos de existência da Wikipédia, eles participaram de 185 confrontos. Os de língua inglesa também têm altos índices de disputa, com 105 no período.

Os robôs representam apenas 0,1% dos editores da enciclopédia e não costumam ser desenvolvidos com o cuidado necessário para que cooperem entre si. Ainda que representem uma parcela ínfima dos editores da Wikipédia, as disputas que esses “bots” travam podem significar mais do que aparentam.

Alta tecnologia ainda não é capaz de eliminar imprevistos

É cada vez mais comum encontrar filmes ou textos que alertem para possíveis problemas que a evolução de tecnologias de inteligência artificial podem acarretar. No filme “Eu, Robô”, de 2004, um robô assassina o amigo do protagonista e acaba iniciando uma guerra entre a polícia americana e centenas de robôs — inspirado em contos de ficção científica de Isaac Asimov, o filme se passa em 2035.

Para os autores do estudo, o futuro não parece ser tão perigoso assim, mas eles sugerem que dispositivos com inteligência artificial deveriam ser estudados e projetados com maior atenção aos detalhes, levando em consideração as diferenças culturais que podem, eventualmente, gerar imprevistos.

As linhas de código são cada vez mais complexas e abarcam uma série de situações. Entretanto, seja pelo alto grau de imprevisibilidade ou pela dificuldade do programador em reconhecer padrões culturais com os quais não está habituado, a ação humana ainda dita situações para as quais os dispositivos de inteligência artificial podem não estar preparados.

Em suma, o estudo explica que não é possível padronizar linhas de código para que atuem da mesma forma em situações distintas, regidas por códigos de conduta (humana) ou leis díspares.

Segundo a pesquisa, analisar a rotina de disputa entre os “bots” editores da Wikipédia pode servir de alerta a pesquisadores e desenvolvedores de tecnologias de inteligência artificial, como carros autônomos, por exemplo. Essa tecnologia, que não requer um motorista, vem sendo testada há alguns anos com o objetivo de reduzir acidentes provocados por humanos. Porém, nos últimos anos, os testes mostraram que esses carros podem não ser integralmente eficazes e acabar apresentando erros em situações inusitadas.

Isso acontece, de acordo com os pesquisadores, porque os carros autônomos são projetados previamente com margem de ação para imprevistos, mas mesmo com alto poder de adaptação a ambientes como rodovias e ruas urbanas, ao se acrescentar o componente humano as possibilidades de haver eventos que fogem à capacidade das máquinas estará presente.

“Tome os carros autônomos, por exemplo. Uma coisa muito simples que é muitas vezes esquecida é que eles serão utilizados em diferentes culturas e ambientes [...] Um carro automatizado vai se comportar de forma diferente na autoestrada alemã em comparação com as estradas italianas. Os regulamentos são diferentes, as leis são diferentes, e a cultura de direção é muito diferente”

Taha Yasseri

Pesquisadora do Instituto de Internet de Oxford e coautora do estudo “Até robôs bons brigam: o caso da Wikipédia

Todos os conteúdos publicados no Nexo têm assinatura de seus autores. Para saber mais sobre eles e o processo de edição dos conteúdos do jornal, consulte as páginas Nossa equipe e Padrões editoriais. Percebeu um erro no conteúdo? Entre em contato. O Nexo faz parte do Trust Project.

Já é assinante?

Entre aqui

Continue sua leitura

Para acessar este conteúdo, inscreva-se abaixo no Boletim Coronavírus, uma newsletter diária do Nexo: