Hé! Vous semblez être en United States, souhaitez-vous utiliser notre site English ?
Switch to English site
Skip to main content

Caméras numériques, radars à micro-ondes et radars légers (Lidar) : les yeux des véhicules autonomes

L'électronique automobile n'a cessé de croître en quantité et en sophistication depuis l'introduction de la première unité de gestion de moteur et de l'injection électronique. Chaque nouvelle fonctionnalité nécessite le traitement des données de nouveaux types de capteurs en temps réel.

Les ADAS et l'explosion des capteurs

Par exemple, le convertisseur catalytique utilisé pour réduire les émissions de monoxyde de carbone (CO) provenant des gaz d'échappement d'un moteur à essence ne peut fonctionner que si le mélange d'admission carburant/air est dosé avec précision, et si le temps d'allumage est tout aussi précis. Un capteur spécial, appelé compteur de masse d'air, mesure la quantité d'air entrant dans le moteur. Un autre capteur mesure le débit de carburant. Le contrôle des émissions est un système en boucle fermée avec rétroaction d'un dispositif de surveillance des gaz d'échappement appelé capteur d'oxygène. Les premières unités de commande électronique (ECU) destinées à équiper les voitures ont assumé une fonction de gestion du moteur, contrôlant l'injection de carburant et le point d'allumage pour assurer une efficacité maximale et un minimum de pollution des gaz d'échappement. La fiabilité des ECU n'était pas considérée comme un problème de sécurité à ce moment-là. Le premier système de frein antiblocage (ABS) était entièrement mécanique-hydraulique et a été conçu pour fonctionner à coup sûr. Et c'était le cas. En quelque sorte.

De nos jours, les capteurs de rotation numériques placés sur chaque roue fournissent des données à un autre ECU qui est capable de neutraliser les entrées de la pédale de frein (ABS) et de l'accélérateur (commande de traction). Il s'agit d'un élément initial de ce que l'on appelle aujourd'hui un système avancé d'aide à la conduite (ADAS), et la fiabilité est une question de sécurité.

nvidia_driverless_car_760100dd1c840378d1afb035bb4c631cc74cf51e.jpg

Source de l'image : nvidia

Systèmes de visibilité - Capteurs

Avant que le DARPA Grand Challenge et Google ne donnent le coup d'envoi du développement des véhicules autonomes, les capteurs pour ADAS étaient relativement simples, les taux d'échantillonnage bas et le traitement de l'ECU bien en deçà des capacités d'un microcontrôleur assez envahissant. Tout cela a changé quand on s'est rendu compte que le remplacement de l'apport sensoriel humain (yeux) et du traitement de l'image (cerveau) allait être une tâche gigantesque. Jusqu'alors, le système le plus sophistiqué pour surveiller ce qui se passait à l'extérieur de la voiture était le radar de stationnement, basé sur des transducteurs à ultrasons ! La mise au point d'un capteur de vision aussi bon que l'œil humain, ou qui s'en approche, fait l'objet de recherches intensives. En fait, lorsque l'on définit la spécification d'un œil artificiel capable de fournir la qualité des données nécessaires à l'automatisation du conducteur, l'œil humain apparaît comme bien piètre par comparaison. Considérez cette spécification vague pour notre système de vision :

  • Doit fournir une couverture horizontale à 360° autour du véhicule
  • Doit résoudre les objets en 3D très près et très loin du véhicule
  • Doit résoudre/identifier plusieurs objets statiques/mobiles jusqu'à une portée maximale
  • Doit faire tout ce qui précède dans toutes les conditions d'éclairage et de météo
  • Enfin, il faut fournir toutes ces données en " temps réel ".

Voyez maintenant dans quelle mesure la vision humaine répond à ces exigences :

  • Deux yeux procurent un champ de vision horizontal allant jusqu'à 200° avec un mouvement oculaire
  • Vision 3D (binoculaire) pour 130° du champ de vision
  • Seule la zone centrale de champ de vision de 45 à 50° est en " haute résolution " avec un maximum de mouvement et de perception des couleurs
  • Hors de la zone centrale, la perception diminue rapidement - " vision périphérique "
  • L'iris automatique fournit une bonne performance dans des conditions d'éclairage variables
  • " Fréquence d'images " vidéo équivalente bonne en zone centrale, mauvaise aux limites de la vision périphérique
  • Chaque œil a un " angle mort " à l'endroit où le nerf optique rejoint la rétine
  • Tout ce qui précède ignore bien sûr l'âge, la maladie et les défauts liés aux blessures

Il en résulte que les yeux du conducteur humain n'offrent qu'une vision acceptable sur une zone étroite et rectiligne et nous n'avons pas encore parlé de l'angle mort. Étant donné les limitations logiques du globe oculaire, comment se fait-il que nous ne voyons pas le monde qui nous entoure comme à travers un hublot étroit ? Parce que le cerveau interpole ou comble les blancs au moyen d'hypothèses intelligentes. Mais il est facile de le tromper.

Les yeux artificiels - Caméra vidéo numérique

La caméra vidéo numérique est un candidat évident pour servir d'œil artificiel qui, à bien des égards, offre une performance supérieure à celle de son homologue naturel :

  • Maintient une haute résolution en pixels et en couleur sur toute la largeur du champ de vision
  • Maintient une " fréquence d'images " constante dans le champ de vision
  • Deux caméras fournissent une vision 3D stéréoscopique
  • C'est un système " passif ", donc pas de problèmes de coexistence avec les transmissions des autres véhicules
  • Maintient la performance dans le temps - ne souffre pas de rhume des foins ou de dégénérescence maculaire

Car_Vision_blog_1_e952aef5760b2f699d3f6a6b90147a7832a24279.png

La Figure 1 ci-dessus montre un système adapté au ADAS, offrant des fonctions telles que la prévention des collisions vers l'avant, les avertissements de sortie de voie, la détection des piétons, l'aide au stationnement et le régulateur de vitesse adaptatif. L'absence d'une couverture à 360° rend cependant la conception inadaptée aux niveaux 4 et 5 d'auto-conduite. Une perception exhaustive de l'environnement de la voiture est possible, mais il faut au moins six caméras et un énorme volume de traitement numérique. Néanmoins, cela est supérieur ou égal aux capacités des yeux humains dans cette situation. Trois sujets de préoccupation subsistent néanmoins :

  • Performances dans de mauvaises conditions d'éclairage, c'est-à-dire la nuit
  • Performances par mauvais temps. Que se passe-t-il lorsque les lentilles sont recouvertes de saleté ou de glace ?
  • Caméras robustes et coûteuses nécessaires, capables de fonctionner sur une large plage de températures

La capacité de vision de la circulation à l'avant n'est pas la seule à être affaiblie. En effet, la signalisation des voies peut être floutée par l'eau et la neige, ce qui rend tout système d'avertissement de sortie de voie peu fiable.

Les yeux artificiels - Lidar

Le Light Detection and Ranging ou Lidar fonctionne sur le même principe que les radars à micro-ondes conventionnels. Les impulsions de lumière laser sont réfléchies par un objet vers un détecteur et le temps de vol est mesuré. Le faisceau est très étroit et la vitesse de balayage suffisamment rapide pour que des représentations 3D précises de l'environnement autour de la voiture puissent être réalisées en temps réel. Lidar marque des points sur la caméra vidéo numérique de plusieurs façons :

  • Couverture 3D complète à 360° disponible avec une seule unité
  • Insensible au niveau de luminosité et a de meilleures performances en cas de mauvaises conditions météorologiques
  • Meilleure estimation de la distance
  • Plus longue portée
  • Les données des capteurs Lidar nécessitent beaucoup moins de traitement que pour les caméras vidéo

Car_Vision_blog_22_1cea9f5fe93aaae1a0c04b9d596e35dc69076fe4.png

Un scanner Lidar monté sur le toit d'une voiture (voir la Figure 2 ci-dessus) peut théoriquement fournir presque toutes les informations nécessaires pour des capacités avancées du système ADAS ou d'auto-conduite. Les premiers prototypes de Google étaient reconnaissables au dôme propre à ce type de système et certains constructeurs automobiles pensent que le Lidar suffit pour assurer la sécurité. Mais il y a des inconvénients :

  • La résolution est plus faible que celle de la caméra vidéo numérique
  • Il ne peut pas " voir " les marquages routiers 2D, n'est donc pas fiable pour les avertissements de sortie de voie
  • Pour la même raison, il ne peut pas " lire " les panneaux de signalisation
  • Le matériel électromécanique de premier plan reste très cher
  • La puissance de sortie du laser est limitée, car des longueurs d'onde de 600 à 1 000 nm peuvent endommager les yeux d'autres usagers de la route. Les unités futures pourraient utiliser une longueur d'onde de 1 550 nm moins dommageable

Le coût des scanners Lidar diminue grâce à la technologie à état solide, mais cela a entraîné une baisse de la résolution en raison de la réduction du nombre de canaux (à peine 8 dans certains cas au lieu de 64). Certains sont conçus pour être distribués autour de la voiture, chacun d'eux fournissant une couverture partielle et évitant les bosses disgracieuses sur le toit.

Les yeux artificiels - Radar

  • Le radar à micro-ondes peut être utilisé pour la détection d'objets de courte (10 m) à longue portée (100 m). Il peut prendre en charge des fonctions telles que le régulateur de vitesse adaptatif, la prévention des collisions vers l'avant, la détection des angles morts, l'aide au stationnement et les alertes pré-collision (voir la Figure 3 ci-dessous). Deux bandes de fréquences sont couramment utilisées : 24-29 GHz pour les courtes distances et 76-77 GHz pour les longues distances. La bande inférieure a des restrictions de puissance et une bande passante limitée car elle est partagée avec d'autres utilisateurs. La bande supérieure (qui pourrait bientôt être étendue à 81 GHz) a une bande passante bien meilleure et des niveaux de puissance plus élevés peuvent être utilisés. Une bande passante plus élevée se traduit par une meilleure résolution pour le travail à courte et longue portée, et pourrait bientôt entraîner la suppression progressive des bandes de 24-29 GHz pour le radar. Il est disponible sous deux formes : Simple Pulse Time-of-Flight et Frequency-Modulated Continuous-Wave (FMCW). Le radar FMCW assure une redondance massive du signal transmis, ce qui permet au récepteur de fonctionner dans des conditions de bruit RF effroyables. Cela signifie que vous pouvez soit avoir une portée très étendue dans des conditions favorables, soit tolérer des interférences massives à courte portée. Il n'est pas assez fiable seul pour l'auto-conduite, mais il a quelques avantages :

Car_Vision_blog_3_1d1f8093cc164f82a33a45729448b0ae92071f48.png

Le radar a ses usages, mais ses limites se limitent au système ADAS de base :

  • Le radar n'a pas la résolution nécessaire pour l'identification des objets, seulement la détection
  • Radar à bande 24-29 GHz incapable de différencier de façon fiable plusieurs cibles multiples
  • Le radar FMCW nécessite un traitement complexe du signal dans le récepteur


Le cerveau

Les caméras Lidar et vidéo numériques ont besoin d'ordinateurs incroyablement puissants pour transformer leurs signaux de sortie en une carte 3D de l'environnement de la voiture avec des objets statiques identifiés et des objets mobiles identifiés, et suivis en temps réel. Une telle puissance de traitement devient disponible sur des cartes uniques, suffisamment petites et bon marché pour mettre à portée de main les niveaux 4 et 5 d'auto-conduite. Le NVIDIA DRIVE PX Pegasus, par exemple, ne dispose pas seulement de 320 TOPS de traitement d'IA avec fusion des capteurs, mais il est également certifié conforme à la norme de sécurité fonctionnelle automobile ISO 26262 ASIL-D. Puis vient leR-Car H3 de Renesas module SiP équipé de huit cœurs ARM Cortex-A57 et A53 avec un double cœur rigide Cortex-R7 pour faire bonne mesure. Ce n'est pas assez pour le niveau 5, mais il peut gérer huit caméras et piloter le système d'info-divertissement de la voiture - le tout selon la norme ISO 26262 ASIL-B !

Conclusion

La conclusion évidente est que les caméras vidéo numériques, le Lidar, le radar et même les ultrasons (sonar) seront tous nécessaires pour atteindre les niveaux de sécurité 4 et 5 d'auto-conduite, du moins à court terme. Combiner les sorties de tous ces systèmes de capteurs sous une forme acceptable par le logiciel de pilotage constituera un défi majeur pour la fusion des capteurs. Il ne fait aucun doute que l'intelligence artificielle sous la forme de réseaux neuronaux profonds sera largement utilisée, non seulement pour le traitement de l'image et l'identification des objets, mais aussi comme réservoir d'expérience de conduite pour la prise de décision.

Si vous avez des questions sur des aspects pratiques, suivez mes messages sur Twitter. Je mets des liens vers des articles intéressants sur l'électronique et les nouvelles technologies, je retweete des publications que j'ai repérées sur les robots, l'intelligence artificielle, l'exploration spatiale et d'autres sujets.

Engineer, PhD, lecturer, freelance technical writer, blogger & tweeter interested in robots, AI, planetary explorers and all things electronic. STEM ambassador. Designed, built and programmed my first microcomputer in 1976. Still learning, still building, still coding today.
DesignSpark Electrical Logolinkedin