Cover Image for Comment garantir la sécurité des voitures autonomes ?
Breves

Comment garantir la sécurité des voitures autonomes ?

Les voitures et les avions autonomes ne sont plus du domaine du futur. Dans la seule ville de San Francisco, deux compagnies de taxis (dont Waymo) ont enregistré collectivement 8 millions de kilomètres de conduite autonome jusqu'en août 2023. Et plus de 850 000 véhicules aériens autonomes, ou drones, sont enregistrés aux États-Unis, sans compter ceux appartenant à l'armée.

Mais la sécurité suscite des inquiétudes légitimes. Par exemple, au cours d'une période de 10 mois qui s'est achevée en mai 2022, la National Highway Traffic Safety Administration (l'organisme responsable de la sécurité routière aux US) a signalé près de 400 accidents impliquant des automobiles utilisant une forme de conduite autonome. Ces accidents ont fait six morts et cinq blessés graves.

La méthode courante pour traiter ce problème, souvent qualifiée de « test jusqu'à l'épuisement », consiste à tester ces systèmes jusqu'à être convaincu de leur sûreté. Cependant, il est impossible d'être certain que cette approche mettra en lumière toutes les failles potentielles. « Les gens testent jusqu'à ce qu'ils épuisent leurs ressources et leur patience », a affirmé Sayan Mitra, un informaticien de l'Université de l'Illinois à Urbana-Champaign. Néanmoins, le test en lui-même ne peut pas garantir une sécurité absolue.

Mitra et ses collègues, eux, affirment qu'ils en sont capables. Son équipe a réussi à prouver la sécurité des fonctionnalités de maintien de voie pour les voitures et des systèmes d'atterrissage pour les aéronefs autonomes. Leur stratégie est maintenant utilisée pour aider à l'atterrissage de drones sur des porte-avions, et Boeing prévoit de la tester sur un avion expérimental cette année. « Leur méthode pour fournir des garanties de sécurité de bout en bout est très importante », a déclaré Corina Pasareanu, chercheuse à l'Université Carnegie Mellon et au Centre de Recherche Ames de la NASA.

Sayan Mitra, a computer scientist at the University of Illinois
Sayan Mitra, a computer scientist at the University of Illinois

Leur travail consiste à garantir les résultats des algorithmes d'apprentissage automatique utilisés pour informer les véhicules autonomes. De nombreux véhicules autonomes ont deux composants : un système de perception et un système de contrôle. Le système de perception vous indique, par exemple, à quelle distance se trouve votre voiture par rapport au centre de la voie, ou dans quelle direction un avion se dirige et quel est son angle par rapport à l'horizon. Ce système fonctionne en alimentant des données brutes provenant de caméras et d'autres outils sensoriels dans des algorithmes d'apprentissage machine basés sur des réseaux neuronaux, qui recréent l'environnement extérieur du véhicule.

Ces évaluations sont ensuite envoyées à un système distinct, le module de contrôle, qui décide de l'action à entreprendre. Si un obstacle se présente, par exemple, il décide s'il faut freiner ou l'éviter. Selon Luca Carlone, professeur associé au MIT, bien que le module de contrôle repose sur une technologie bien établie, « il prend des décisions basées sur les résultats de la perception, et il n'y a aucune garantie que ces résultats soient corrects ».

Pour offrir une garantie de sécurité, l'équipe de Mitra a donc travaillé à assurer la fiabilité du système de perception du véhicule. Ils ont d'abord supposé qu'il est possible de garantir la sécurité lorsque une représentation parfaite du monde extérieur est établie, et disponible. Ils ont ensuite déterminé dans quelle mesure le système de perception introduit des erreurs dans sa reconstitution de l'environnement du véhicule.

La clé de cette stratégie est de quantifier les incertitudes impliquées, connues sous le nom de bande d'erreur — ou les « inconnus connus », comme l'a exprimé Mitra. Ce calcul provient de ce que lui et son équipe appellent un contrat de perception. En ingénierie logicielle, un contrat est un engagement selon lequel, pour une entrée donnée à un programme informatique, la sortie se situera dans une plage spécifiée. Déterminer cette plage n'est pas facile, car elle dépend de plusieurs facteurs ; quelle est la précision des capteurs de la voiture ? Quel degré de brouillard, de pluie ou d'éblouissement solaire un drone peut-il tolérer ? Mais si vous pouvez maintenir le véhicule dans une plage d'incertitude spécifiée, et si la détermination de cette plage est suffisamment précise, l'équipe de Mitra a prouvé que vous pouvez garantir sa sécurité.

C'est une situation bien connue de ceux qui s'amusent à fleurter avec les limitations de vitesse. Si vous savez que votre compteur de vitesse est toujours décalé de quelques kilomètres-heures par rapport à votre vitesse réelle, vous pouvez faire en sorte de ne pas dépasser la limitation de vitesse en roulant légèrement au dessus de la limite. Votre compteur, bien qu'imprécis, reste prévisible dans l'affichage de la vitesse. De la même manière, un contrat de perception permet d'assurer la sécurité d'un système imparfait reposant sur l'intelligence artificielle, en acceptant une marge d'erreur contrôlée.

"Vous n'avez pas besoin d'une perception parfaite," a déclaré Carlone. "Il suffit qu'elle soit assez fiable pour ne pas compromettre la sécurité." La principale contribution de l'équipe, a-t-il dit, est "l'introduction de l'idée même des contrats de perception" et la fourniture des méthodes pour les élaborer. Pour cela, ils se sont appuyés sur des techniques issues de la vérification formelle, un domaine de l'informatique qui permet de confirmer mathématiquement que le comportement d'un système répond à un ensemble d'exigences.

"Bien que nous ne sachions pas exactement comment le réseau neuronal opère," a ajouté Mitra, "nous avons démontré qu'il est quand même possible de prouver que l'incertitude de la sortie d'un réseau neuronal se situe dans certaines limites. Et, si c'est le cas, alors le système sera sûr. Nous pouvons alors fournir une garantie statistique sur le fait qu'un réseau neuronal donné respectera ou non (et dans quelle mesure) ces limites."

La société aérospatiale Sierra Nevada teste actuellement ces garanties de sécurité lors de l'atterrissage d'un drone sur un porte-avions. Ce problème est en quelque sorte plus compliqué que la conduite de voitures en raison de la dimension supplémentaire que représente le vol. "Lors de l'atterrissage, il y a deux tâches principales," a expliqué Dragos Margineantu, Responsable de l'IA chez Boeing, "aligner l'avion avec la piste et s'assurer que la piste est libre d'obstacles. Notre travail avec Sayan consiste à obtenir des garanties pour ces deux fonctions."

"Les simulations utilisant l'algorithme de Sayan montrent que l'alignement [d'un avion avant l'atterrissage] s'améliore," a-t-il dit. La prochaine étape, prévue pour plus tard cette année, est d'utiliser ces systèmes lors de l'atterrissage réel d'un avion expérimental Boeing. L'un des plus grands défis, a noté Margineantu, sera de déterminer ce que nous ne savons pas - "évaluer l'incertitude dans nos estimations" - et de voir comment cela affecte la sécurité. "La plupart des erreurs se produisent lorsque nous faisons des choses que nous pensons connaître - et il s'avère que nous ne les connaissons pas."

Source : quantamagazine.org


De la même catégorie :