Ir direto ao conteúdo

Os projetos que usam inteligência artificial para detectar mentiras

Um dos sistemas é desenvolvido pela União Europeia, que pretende implementá-lo em suas fronteiras. Entidades de direitos civis alertam para riscos

     

    Cerca de 700 milhões de pessoas entram na União Europeia a cada ano, de acordo com dados oficiais.

    A região está financiando agora o desenvolvimento de um sistema que irá usar a inteligência artificial no controle de suas fronteiras. Chamado de projeto iBorderCtrl, seu custo é estimado em mais de US$ 5 milhões. Entre suas promessas está a de detectar se a pessoa que deseja entrar na região está mentindo.

    De acordo com um comunicado da Comissão Europeia, o viajante será recebido por um guarda de fronteira virtual, uma animação de computador personalizada conforme seu gênero, etnicidade e língua. O equipamento elenca uma série de perguntas para o candidato à entrada como, por exemplo, “O que tem na sua mala?” e “Se você abrir sua mala e me mostrar o que tem dentro, isso irá confirmar a veracidade de suas respostas?”

    Enquanto se comunica com a animação, uma webcam registra as “micro-expressões” da pessoa para captar possíveis sinais de que declarações falsas. Com base nas informações que contém sobre movimentos não-verbais e suas relações com inverdade, o software calcula a probabilidade de o respondente estar mentindo.

    Se considerar que o viajante está faltando com a verdade, o avatar mudará o tom de voz, adotando uma postura mais cética. Em seguida, um agente humano é chamado para se encarregar da situação.

    O trabalho focou em comportamentos não-verbais, repartidos nas seguintes categorias: geral do rosto, sobrancelhas, olhos, olhar, boca, lábios, movimentos de cabeça, mãos e trajetória das mãos

    Utilizado em conjunto com outros recursos presentes no sistema, como identificação biométrica e reconhecimento facial, a tecnologia é anunciada como maneira de acelerar o procedimento de entrada de pessoas vindas de países de fora da União Europeia. A ideia inicial é de que o equipamento esteja disponível em fronteiras de entrada terrestre, como estações de trem, rodovias e acessos para pedestres.

    O sistema foi testado em 32 e, de acordo com as autoridades europeias, com um índice de acerto de 85%.

    Observação de padrões

    O site Popular Science entrevistou uma pesquisadora de ciências da computação e engenheira que trabalha há dez anos em um sistema similar. Rada Mihalcea, da Universidade de Michigan, faz parte de uma equipe que usou transcrições e vídeos de julgamentos em tribunais públicos para “ensinar” ao computador comportamentos ligados a testemunhos verdadeiros e falsos.

    O trabalho focou em comportamentos não-verbais, repartidos nas seguintes categorias: geral do rosto, sobrancelhas, olhos, olhar, boca, lábios, movimentos de cabeça, mãos e trajetória das mãos.

    Cada uma dessas categorias foi subdividida em comportamentos específicos. Por exemplo, os olhos poderiam estar “exageradamente abertos”, “ambos fechando”, “fechando repetidamente”. A cabeça podia “balançar”, “virar para o lado” ou “concordar repetidamente”, entre outras possibilidades.

    Organizações que defendem direitos civis e questões éticas na tecnologia vêm com desconfiança esse tipo de tecnologia

    Um total de 121 vídeos com textos correspondentes foi utilizado. Declarações de réus e testemunhas foram incluídos. Metade eram depoimentos verdadeiros, a outra metade mentirosos.

    De acordo com a equipe, ao ser programado para analisar alguns dos vídeos, o computador apresentou um índice de acerto entre 60% e 75%. Em comparação com avaliações feitas por seres humanos, a máquina teve desempenho melhor.

    Alguns comportamentos desafiam o que muitos imaginam como sendo uma manifestação sincera. Falando ao site Popular Science, Mihalcea explicou que mentirosos têm maior probabilidade de olhar diretamente nos olhos do perguntador. Eles também têm mais chances de usar as duas mãos em vez de apenas uma. Para a cientista, faz parte do esforço de soar convincente.

    O que eles dizem

    Em relação a pistas verbais, os pesquisadores notaram que aqueles que não estão dizendo a verdade evitam o uso de pronomes como “eu” e “nós’, que se referem a sua pessoa. “Em vez disso, as pessoas que mentem usariam mais ‘você’, ‘seus’, ‘ele’ e ‘ela’”.

    Mihalcea também apontou um uso mais frequente de expressões que traduzem veemência, como “muito” e “absolutamente”. Os que falam a verdade tendem a optar por “talvez” e “provavelmente”. “[Os mentirosos] tentam soar mais seguros.”

    A pesquisadora ressalvou que padrões e tendências não significam certezas. Para ela, o índice de acerto de 3 em cada 4 do sistema de inteligência artificial significa que ele não poderia ser usado para veredictos finais, mas como tecnologia de apoio.

    Outro experimento

    Pesquisadores da Universidade de Maryland também desenvolvem um projeto que usa a inteligência artificial para rastrear sinais de mentira nas expressões de uma pessoa. Chamado Dare (abreviação em inglês para motor de análise e raciocínio de trapaça), ele também foi alimentado com vídeos de pessoas em tribunais, mentindo e falando a verdade. O estudo foi publicado em dezembro de 2017, mas aguarda revisão pelos pares.

     

    Da mesma forma, o sistema foi ensinado a avaliar micro-expressões, entre elas “lábios projetados” e “testa franzida”. A diferença é que o programa da universidade de Maryland também avalia frequências de áudio das vozes e pode identificar padrões de voz que podem ser correlacionados com uma declaração mentirosa.

    Segundo Bharat Singh, um dos pesquisadores envolvidos no projeto, em entrevista ao site Futurism, o sistema “era significantemente melhor que pessoas comuns na identificação de uma trapaça”. Sua pontuação neste aspecto foi de 0,87, em uma medida de avaliação elaborada pelos cientistas. Quando combinada com auxílio humano, a marca subia para 0,92. De acordo com o pesquisador, pessoas comuns tem uma marca de 0,58, me média.

    Questões éticas

    Organizações que defendem direitos civis e questões éticas na tecnologia vêm com desconfiança esse tipo de tecnologia. Os próprios sistemas de reconhecimento facial já foram acusados de conter vieses quando a pessoa analisada é mulher ou não-branca.

    O uso de inteligência artificial para descobrir mentirosos deve ser realizado com cautela, para especialistas. “Se isso vai ser usado para decidir (...) o destino de humanos, deveria ser considerado dentro de seus limites e contexto, para ajudar um humano a julgar e tomar uma decisão”, afirmou Raja Chatila, que encabeça o comitê de considerações éticas na inteligência artificial da Ieee, entidade internacional de engenheiros da computação e tecnologia que define padrões globais para a área.

    “Isso faz parte de uma tendência mais ampla de usar sistemas automatizados opacos, frequentemente deficientes, para julgar, avaliar e classificar pessoas”, afirmou Frederike Kaltheuner, da ONG Privacy International, que trabalha contra a invasão de privacidade e monitoramento de pessoas por parte de governos e empresas.

    Para Kaltheuner, que falou à CNN, o sistema “é uma péssima ideia”. “Mesmo taxas de erro que parecem reduzidas significam que milhares de pessoas têm agora de provar que são pessoas honestas porque um software diz que elas são mentirosas.”

     

    Todos os conteúdos publicados no Nexo têm assinatura de seus autores. Para saber mais sobre eles e o processo de edição dos conteúdos do jornal, consulte as páginas Nossa Equipe e Padrões editoriais. Percebeu um erro no conteúdo? Entre em contato. O Nexo faz parte do Trust Project. Saiba mais.

    Mais recentes

    Você ainda tem 2 conteúdos grátis neste mês.

    Informação com clareza, equilíbrio e qualidade.
    Apoie o jornalismo independente. Junte-se ao Nexo!