A Tesla tem anunciado repetidamente que o seu sistema de condução autónoma de nível L3 está prestes a ser certificado nos EUA e na Europa. Atualmente, os únicos sistemas SAE L3 aprovados para utilização em estradas públicas são os da Mercedes-Benz (com o Classe S/EQS Drive Pilot na Alemanha e nos EUA) e os da Honda (com o Legend’s “Traffic-Jam Pilot” no Japão). O nível L3 significa que o automóvel pode conduzir-se sozinho e que o condutor pode tirar os olhos da estrada, em situações definidas.
Os sistemas da Mercedes-Benz e da Honda, bem como os dos outros fabricantes que estão a trabalhar na homologação das suas tecnologias de condução autónoma, baseiam-se num sistema com uma redundância de sensores, incluindo câmaras, radar e LiDAR.
Os fabricantes chineses apostaram fortemente nos sensores LiDAR e já dispõem de um grande número de modelos com esta tecnologia e de muitos fornecedores.
No entanto, a Tesla, com o seu sistema Autopilot FSD (Full Self-Driving), é o único fabricante que aposta num sistema baseado exclusivamente em câmaras e em machine learning, ou seja, na profundidade de análise e aprendizagem com dados (milhões de imagens e vídeos de tráfego real) de redes neurais de Inteligência Artificial.
A Carglass Espanha fez uma análise sobre a situação atual dos sistemas de assistência à condução ADAS (L2 e L3) e a implementação de sensores LiDAR nos mesmos, que analisa o seu funcionamento, legislação e abordagens técnicas, concluindo que a redundância dos sistemas maximiza a segurança.
O que é o LiDAR e como funciona?
Esta tecnologia baseia-se num emissor de laser, que emite feixes de luz laser infravermelha que atingem os objectos e que, quando fazem ricochete, são registados por um recetor. O sistema é capaz de medir com precisão a distância, a posição e a altura desse objeto através da realização de um varrimento laser. O seu alcance é de até 250 metros.

Trata-se de um sistema muito fiável, que funciona igualmente bem de dia e de noite e que pode gerar representações fiáveis em condições meteorológicas adversas. De acordo com a análise da Carglass nesta análise que fez, o sensor LiDAR complementa as câmaras e o radar e proporciona uma redundância adicional na deteção de objetos em redor do veículo. Sublinha a empresa que isto é especialmente útil em situações em que as câmaras ou o radar podem falhar devido a más condições de visibilidade ou à interferência do sinal de outros veículos. A Carglass Espanha destaca o facto de numerosos estudos terem demonstrado que a eficácia dos ADAS diminui em condições de chuva e neve, ou com o para-brisas sujo; e esta deficiência pode ser ultrapassada através da incorporação de um sensor LiDAR.

Nessa linha, Li Xiang, fundador, presidente e diretor executivo da Li Auto, declarou que “se Elon Musk conduzisse na China, compreenderia por que razão o LiDAR é necessário”, explicando que existem demasiados perigos que são difíceis de detetar apenas com as câmaras e que a tecnologia laser pode detetar objectos a mais de 200 metros, enquanto as câmaras só são boas até 100 metros.
O que diz a legislação?
A UNECE (Comissão Económica das Nações Unidas para a Europa) e os regulamentos de segurança funcional definem a norma técnica prevalecente em diferentes regiões do mundo para a aprovação de um sistema de condução autónoma L3 (L3 UNECE R157, Segurança funcional – ISO 26262 / IEC 61508). Explica a Carglass que estes regulamentos não impõem o LiDAR, mas falam da redundância dos sensores e do desempenho do sistema em todas as condições. Esta redundância de sensores pode ser aceite como redundância funcional (duas cadeias de deteção independentes) em vez de redundância física.
A segurança funcional e os regulamentos da UNECE não exigem o LiDAR, mas referem a redundância dos sensores e o desempenho do sistema em todas as condições.

Neste contexto e de acordo com a Carglass, a aprovação de um sistema baseado apenas em câmaras é mais complicada, porque os reguladores têm de ser convencidos por provas, dados estatísticos e simulações de que o sistema funciona de forma fiável em todas as condições de visibilidade. Os sistemas baseados em sensores de natureza diferente (câmara, radar e LiDAR) já foram aprovados na Europa, nos EUA e no Japão e têm um percurso regulamentar menos complexo.
O “problema” da capacidade computacional e de hardware
Os sistemas com redundância de sensores são mais caros e complexos e requerem muito mais capacidade de computação. O aumento da quantidade de informação, o seu processamento, a fusão dos dados recebidos pelos sensores e a resolução das discrepâncias entre eles exigem um hardware muito potente, capaz de efetuar todas estas operações quase em tempo real (menos de 100 milissegundos), que é o que exige a condução de um veículo.
Isto faz com que sejam necessários TOPS (Tera-Operations Per Second) e largura de banda de memória, muito superiores aos sistemas “apenas com câmara”. O Avatr 11, o modelo com mais sensores atualmente, incorpora 35: 3 sensores LiDAR, 13 câmaras de alta resolução, 6 radares de ondas milimétricas, 12 sensores ultra-sónicos e 1 câmara de monitorização do condutor.
Este tipo de automóvel pode processar até 8 GB de dados por segundo e requer uma capacidade de computação combinada de 1.016 TOPS. A próxima geração de chips para condução automatizada já tem uma potência superior a 2.000 TOPS.

O sistema da Tesla requer menos potência de computação e toda essa computação é exclusivamente para a visão. Também funciona com uma rede e cablagem de bordo mais pequenas, utiliza menos memória, não necessita de refrigeração e consome menos energia.
O que acontece quando há uma discrepância entre sensores?
Os sistemas baseados em câmaras não têm este problema, que pode ocorrer em sistemas multi-sensor. Nestes sistemas, o sistema recebe imagens laser do LiDAR com pontos 3D de cada objeto, imagens da câmara (com forma e cor) e dados do radar com a velocidade a que cada objeto se move. Para fundir esta informação, o sistema cria uma fusão precoce que gera um mapa geométrico único e determina a distância, a posição, o tamanho e a velocidade dos objetos circundantes. De seguida, os algoritmos reconhecem o que é o quê e verificam se a informação de todos os sensores corresponde a esse reconhecimento.

Se a informação de algum sensor for discrepante, são utilizados vários processos. O primeiro é uma fusão hierárquica de algoritmos Bayesianos (utilizando probabilidades prévias), filtros de Kalman (verificando se a nova posição corresponde à trajetória anterior) e técnicas Dempster-Shafer (atribuindo um grau de crença a cada sensor) para ponderar a fiabilidade de cada fonte em cada ciclo. É também atribuído um peso dinâmico ao LiDAR ou à câmara com base nas condições meteorológicas, no autodiagnóstico de sujidade e no nível de luminosidade. O sistema de condução autónoma da Mercedes-Benz duplica a cadeia completa: LiDAR + radar, por um lado, e câmaras, por outro. Os resultados são comparados e quaisquer discrepâncias são resolvidas a favor da rota mais conservadora. E se a discrepância não puder ser resolvida, o sistema comunica uma falha, avisa o condutor e passa para L2.
Aerodinâmica e design
Os sensores LiDAR de condução autónoma L5 têm uma visão de 360 graus, estão montados no tejadilho do veículo e rodam sobre si próprios (até 900 vezes por minuto) para obter uma visão clara de todo o ambiente. Mas os LiDARs de condução L3 são mais simples. Estes sensores têm um ângulo de visão de 120° e apontam para a frente do veículo e para os lados (nos modelos com três sensores), recolhendo informações sobre todos os objetos à frente e para os lados do automóvel.
A próxima geração de sensores LiDAR frontais será instalada atrás do para-brisas e não afetará o design e a aerodinâmica do veículo. Os sensores LiDAR utilizados até à data não necessitam de ser recalibrados após uma substituição do para-brisas (o que é necessário para as câmaras ADAS, como a Carglass recorda sempre), embora alguns deles necessitem de ser reiniciados.
