O futuro da mobilidade com carros autônomos

Ainda distantes do cotidiano do trânsito das cidades, veículos sem motorista são tema de pesquisa de grupos no Brasil

O Nexo é um jornal independente sem publicidade financiado por assinaturas. A maior parte dos nossos conteúdos são exclusivos para assinantes. Aproveite para experimentar o jornal digital mais premiado do Brasil. Conheça nossos planos. Junte-se ao Nexo!

Veículos dotados de sistemas avançados de direção autônoma já circulam em cidades dos Estados Unidos, da Ásia e da Europa. Na China, a empresa de tecnologia Baidu, dona do aplicativo de mobilidade urbana Apollo Go, e a startup AutoX, ligada ao conglomerado Alibaba, oferecem serviços em caráter experimental de robotáxi em alguns dos principais centros urbanos do país, como Beijing, Xangai e Shenzhen. Os veículos autônomos disponíveis hoje, contudo, enquadram-se em um cenário limitante: dependem de um motorista de segurança a bordo, que assuma o controle do volante em situações de risco; ou deslocam-se apenas em baixa velocidade, em torno de 40 a 50 km/h, por circuitos fechados, com obstáculos e riscos previamente mapeados.

Ainda não existem automóveis com automação plena, capazes de trafegar com segurança em rotas variadas e sem intervenção humana. “Carros autônomos que interagem com a infraestrutura das cidades gerando melhorias no trânsito, conforto e segurança aos usuários e pedestres são o futuro da mobilidade, mas é uma transformação que ainda vai levar 20 ou 30 anos para acontecer”, diz o cientista da computação Fabio Kon, do Departamento de Ciência da Computação do IME-USP (Instituto de Matemática e Estatística da Universidade de São Paulo).

Os veículos são classificados em cinco níveis de autonomia, conforme escala criada pela SAE International, entidade que reúne cientistas e especialistas em engenharia automotiva. O funcionamento desses carros depende de um conjunto de sistemas, entre eles sensores para observar o entorno e captar a presença de pedestres, ciclistas, objetos e outros carros na via e nas proximidades, e ferramentas de inteligência artificial para interpretar as informações captadas e transformá-las em ações, como controle de velocidade, frenagem, entradas e saídas de faixas de rodagem. Também necessitam de navegadores eletrônicos, como o GPS (Sistema de Posicionamento Global), para planejar e traçar rotas.

“Já temos os sistemas necessários para a autonomia veicular, mas ainda precisamos aperfeiçoar muito a capacidade dos sensores de obter informações de qualidade e da inteligência artificial de interpretar essas informações”, constata o cientista da computação Fernando Osório, do ICMC (Instituto de Ciências Matemáticas e de Computação) da USP, campus de São Carlos. Centros de pesquisas públicos e privados em vários países dedicam-se a criar as soluções necessárias para superar esses desafios.

No Brasil, uma das principais iniciativas em curso é a do grupo de trabalho formado em 2021 em torno do SegurAuto (Projeto e Desenvolvimento Integrado de Funções de Segurança Assistida ao Condutor e Ambiente para Veículos Autônomos). A equipe reúne pesquisadores da USP, da UTFPR (Universidade Tecnológica Federal do Paraná), da UnB (Universidade de Brasília), da UFPE (Universidade Federal de Pernambuco e das empresas BMW, Stellantis (antiga Fiat Chrysler), Renault, Mercedes-Benz, Bosch, AVL, DAF Caminhões e Vector Informatik.

“O conceito de trabalho do SegurAuto é o desenvolvimento de sistemas avançados de auxílio a condução, que vão sendo incorporados gradativamente aos veículos até culminar com a autonomia plena”, explica o engenheiro mecânico Evandro Leonardo Silva Teixeira, do curso de engenharia automotiva da UnB. Alguns exemplos dessas inovações incorporadas pelas montadoras são o controle eletrônico de estabilidade do veículo, os sistemas automáticos de estacionamento e o controle de cruzeiro adaptativo, que permite definir a velocidade e a distância limite do carro da frente.

Sensores combinados

Uma das propostas em curso da equipe do SegurAuto é a combinação de dois tipos de sensores para fazer a leitura do ambiente no qual os veículos estão inseridos. No caso, radares, que usam ondas de rádio para captar a presença de elementos, e visão computacional, que utiliza câmeras de vídeo. Segundo Osório, coordenador do grupo da USP de São Carlos no SegurAuto, o radar, na maioria das situações, é capaz de detectar obstáculos inesperados. “Se alguém entrar na frente de um caminhão, o equipamento detecta prontamente e permite o acionamento imediato do comando para parar o veículo”, detalha. Porém, explica, ele nem sempre capta nuances e tem percepção apenas aproximada das características dos obstáculos.

A visão computacional é mais precisa. Além de identificar e detalhar os obstáculos e elementos próximos às vias, permite a leitura de placas de trânsito e enxerga faixas de pedestres e de rodagem. O problema é que situações adversas como neblina, chuva, poeira, faróis em direção contrária e luzes de veículos de emergência e segurança prejudicam a visibilidade das câmeras de vídeo.

Os carros da montadora norte-americana Tesla, que só utilizam sensores de visão computacional, são um exemplo das limitações do sistema. Já se envolveram em mais de uma dúzia de acidentes. Em vários, o sensor não foi capaz de distinguir luzes de emergência de veículos parados na pista, e o Tesla atropelou os socorristas.

“Nenhum sensor sozinho é totalmente eficiente. Por isso, a combinação de tecnologias deverá ser a melhor solução”, avalia Osório. Mesmo o mais eficaz dos sensores, segundo o pesquisador, o Lidar (Detecção de Luz e Medida de Distância), que emprega feixes de laser para medir a distância dos objetos e mapear o ambiente, é limitado pelo seu curto alcance, de 150 metros, o que exige uma composição com outros sensores.

Além disso, o Lidar exige mecanismos de elevada precisão e o apoio de unidades de processamento de alto desempenho, resultando em um custo operacional considerado proibitivo pela maioria das montadoras. A principal entusiasta da tecnologia na indústria de autônomos, a Waymo, do grupo norte-americano Alphabet, o mesmo controlador do Google, desistiu em 2021 de vender soluções Lidar para outras companhias e prepara uma nova geração mais eficiente e de menor custo.

A união de radares e a visão computacional propostas pela equipe do SegurAuto já demonstraram sua eficácia operacional, informa Osório, mas tem que melhorar o desempenho de cada um dos sensores. “É preciso enxergar mais longe e com maior antecedência”, destaca. Uma ultrapassagem a 80 km/h demanda antecipar situações que estão a 1 km de distância. “Um radar comum tem alcance de 300 metros, uma câmera de vídeo alcança uma distância maior, mas a informação obtida é imprecisa. É preciso alta capacidade de processamento de dados e há lentidão na obtenção de resultados”, descreve o pesquisador.

Detectar obstáculos distantes é apenas a primeira etapa do processo. É necessário ainda determinar a direção à qual o objeto identificado se move, a velocidade do movimento e prever se há ou não risco de colisão. Para isso, é preciso que os sistemas de inteligência artificial aprimorem sua capacidade de interpretar cenários.

O avanço das telecomunicações e da IoT (Internet das Coisas) pode contribuir para gerar segurança veicular. É possível, por exemplo, antecipar cenários de perigo, como dois carros chegando ao mesmo instante em um cruzamento onde o campo de visão é limitado. “A comunicação entre veículos ou entre veículos e celulares de pedestres, radares ou câmeras de segurança, pode gerar a informação de forma antecipada”, diz o cientista da computação Abel Guilhermino da Silva Filho, líder do Live (Laboratório de Inovação Veicular) do Centro de Informática da UFPE.

As redes de comunicação Vehicle to Everything (V2X) e Cellular Vehicle to Everything (C-V2X), ou seja, veículos conectados, que recebem e emitem sinais para outros carros, celulares de pedestres e infraestrutura urbana, como semáforos, radares, câmeras de segurança predial, são temas de pesquisa da UFPE no SegurAuto.

O grupo coordenado por Guilhermino fez um estudo de caso com base em um comboio, uma situação comum no transporte de cargas, em que as decisões do veículo que vai à frente do grupo – acelerar, frear, parar, alterar rota – são transmitidas aos demais. As informações antecipadas pelo líder proporcionam mais segurança operacional e economia de combustível ao comboio. Além disso, apenas o veículo que segue na dianteira precisaria ter a presença de um humano para intervir em situações de risco. “Estamos estabelecendo qual o melhor protocolo de comunicação, o tempo em que a comunicação interveicular deve ocorrer e o período necessário para uma reação segura”, detalha o pesquisador.

As equipes da UnB, liderada por Teixeira, e da Poli (Escola Politécnica) da USP, coordenada pelo físico João Francisco Justo Filho, têm a incumbência de desenvolver softwares capazes de converter as informações colhidas pelos sensores em decisão e ações efetivas nos veículos. Os pesquisadores da UnB se dedicam às soluções de controle e comando da direção e frenagem preditiva, enquanto os da Poli-USP trabalham com os sistemas de motores e freio.

Outro grupo de pesquisa nacional se organiza em torno do programa InSAC (Instituto Nacional de Ciência e Tecnologia para Sistemas Autônomos Cooperativos), que tem suporte da Fapesp (Fundação de Amparo à Pesquisa do Estado de São Paulo), e um histórico de contribuições desde 2009, quando era denominado INCT-SEC (Sistemas Embarcados Críticos).

O programa apoiou o projeto Carina (Carro Robótico Inteligente para Navegação Autônoma), o primeiro autônomo brasileiro a percorrer de forma assistida as ruas de uma cidade brasileira, no caso, São Carlos, em 2013, o primeiro caminhão autônomo da América Latina e a primeira máquina agrícola nacional. Todos os trabalhos foram desenvolvidos pelo grupo do Laboratório de Robótica Móvel do ICMC-USP. O Laboratório de Sistemas Inteligentes da Eesc-USP (Escola de Engenharia de São Carlos da USP) colaborou no desenvolvimento do Carina e do caminhão autônomo.

Em 2019, uma equipe de seis alunos de pós-graduação do ICMC coordenada pelos professores Denis Wolf e Osório desenvolveu um veículo autônomo virtual e sagrou-se campeã do Desafio de Direção Autônoma Carla (Car Learning to Act), competição promovida pelas principais montadoras e desenvolvedoras de tecnologia de direção autônoma. A prova reuniu 69 equipes das mais prestigiadas instituições de ensino do mundo.

Uma contribuição recente no âmbito do InSAC é na área de visão computacional e foi realizada pela equipe do engenheiro mecânico Valdir Grassi Junior, do SEL (Departamento de Engenharia Elétrica e de Computação) da Eesc-USP. Trata-se do desenvolvimento de um método para a detecção de profundidade do ambiente a partir da imagem de uma única câmera embarcada no veículo. Ou seja, a partir de uma imagem, o software estima a distância dos objetos para o veículo. O resultado do trabalho foi publicado na revista Robotics and Autonomous Systems, em 2021.

“A exemplo dos humanos, a visão computacional tradicionalmente usa duas câmeras para determinar profundidade. Quando o humano perde a visão de um olho, o cérebro leva um tempo a se adaptar à percepção de profundidade monocular. Um veículo precisa seguir viagem com segurança se uma câmera falha. Daí a necessidade de criar algoritmos treinados para a situação”, justifica Grassi.

Coordenador do InSAC, o engenheiro eletricista Marco Henrique Terra, do SEL-Eesc, informa que estão em estágio avançado as negociações com uma montadora de caminhões para o desenvolvimento de um projeto de veículos pesados autônomos para operações em ambientes críticos nos setores agrícola e mineral. “Essas são duas grandes áreas de interesse por parte de multinacionais quando pensam em investir no Brasil”, diz Terra.

Em 2017, o projeto Iara (Intelligent Autonomous Robotic Automobile), do LCAD-Ufes (Laboratório de Computação de Alto Desempenho da Universidade Federal do Espírito Santo), atingiu um marco da pesquisa brasileira ao realizar uma viagem assistida de 74 km entre o campus da Ufes, em Vitória, e o município vizinho de Guarapari. Uma parte dos envolvidos no projeto formou em 2019 a startup Lume Robotics. Há dois anos, ela lançou em parceria com a fabricante paranaense de veículos elétricos Hitech Electric o primeiro carro autônomo comercial do país. O e.coTech 4 usa sensores Lidar, câmeras de vídeo e GPS e está classificado no nível 4 de autonomia, ou seja, trafega sem motorista em áreas previamente mapeadas.

“Nossa expectativa é atender demandas de transporte corporativo, para a locomoção de pessoas, por exemplo, em grandes plantas industriais”, diz Rânik Guidolini, sócio-fundador da Lume. Um caminhão autônomo, também voltado para operar em sítios industriais, está previsto para entrar em testes ainda em 2022. “Estamos com cinco projetos-piloto programados. Esperamos fechar os primeiros contratos ainda este ano”, estima Guidolini.

A seção `Externo` traz uma seleção de artigos e ensaios cedidos por veículos nacionais e internacionais. Textos publicados originalmente em outros idiomas têm tradução do Nexo.

Todos os conteúdos publicados no Nexo têm assinatura de seus autores. Para saber mais sobre eles e o processo de edição dos conteúdos do jornal, consulte as páginas Nossa equipe e Padrões editoriais. Percebeu um erro no conteúdo? Entre em contato. O Nexo faz parte do Trust Project.