la promesse et le piège
Les voitures autonomes sont présentées comme une révolution : fini les accidents humains, fini le stress de la route, chacun pourra lire, travailler ou dormir pendant que l’IA conduit. Une promesse séduisante, mais qui cache un casse-tête juridique et politique. Car si une voiture sans conducteur percute un piéton, qui est responsable ? Le conducteur censé garder la main ? Le constructeur qui a vendu la voiture ? Ou l’entreprise qui a codé l’algorithme ? Derrière cette question, c’est toute la société qui doit trancher : jusqu’où sommes-nous prêts à déléguer nos responsabilités à une machine ? dossier politique, dossier culture
Qui porte la responsabilité en cas d’accident ?
Le droit actuel repose sur un principe simple : celui qui conduit est responsable. Mais avec une voiture autonome, ce principe vacille. Trois options s’affrontent :
-
Le conducteur : il reste théoriquement maître de son véhicule et doit pouvoir reprendre le contrôle à tout moment. Mais si la voiture est “autonome”, peut-on vraiment lui reprocher de ne pas réagir assez vite ?
-
Le constructeur : il a fabriqué une machine censée fonctionner sans intervention humaine. Mais les constructeurs refuseront d’assumer seuls tous les risques, sous peine d’exploser leurs coûts d’assurance.
-
Le codeur ou l’entreprise logicielle : c’est l’algorithme qui décide du freinage, du virage ou du calcul de trajectoire. Faut-il rendre pénalement responsable une équipe d’ingénieurs ?
Le flou est déjà visible dans plusieurs affaires : en 2018, une voiture autonome d’Uber a mortellement percuté une piétonne en Arizona. Qui a été poursuivi ? Non pas Uber, mais… la conductrice de sécurité censée surveiller le système. Un exemple qui illustre la difficulté à fixer la responsabilité.
Le piège de l’effacement des compétences
Un autre problème, souvent ignoré, est celui de l’effacement des compétences. Si les conducteurs ne pratiquent plus, leur habileté disparaît. Comme les pilotes d’avion qui s’endorment sur le pilote automatique, les conducteurs risquent de devenir incapables de réagir en cas d’urgence.
Certains experts évoquent l’idée d’une obligation légale de conduire soi-même une heure ou deux par semaine, pour garder la main. Mais ce serait une intrusion de l’État dans la vie privée, une forme de “service obligatoire de conduite”. Et surtout, cela contredirait la promesse même de la voiture autonome.
Des études de l’université de Stanford ont montré que lorsqu’on rend le contrôle à un conducteur après 10 ou 15 minutes de conduite automatisée, le temps de réaction est jusqu’à deux fois plus lent que celui d’un conducteur actif. Autrement dit, à trop déléguer, on finit par désapprendre. Dans une société qui choisit toujours la facilité technologique, cette déséducation collective peut devenir un danger public.
L’illusion technologique : tout n’est pas soluble dans l’IA
Les partisans du progrès sans limite défendent l’idée que toute difficulté peut être résolue par la technologie. Mais la voiture autonome révèle l’illusion de cette croyance.
Même si la technologie fonctionne parfaitement, les problèmes restent :
-
Qui programme la morale de la machine ? Doit-elle protéger en priorité le passager ou le piéton ?
-
Qui accepte d’être jugé par un algorithme opaque ?
-
Jusqu’où accepte-t-on de déléguer des choix de vie et de mort à une entreprise privée ?
En Allemagne, un débat juridique a déjà eu lieu : la loi impose que la voiture autonome ne puisse pas discriminer entre deux vies humaines. Mais concrètement, l’algorithme doit toujours choisir une option, et donc établir une hiérarchie implicite. Ces dilemmes montrent que la technique ne peut pas tout régler.
Comme pour le transhumanisme, il arrivera un moment où l’État devra dire : “stop”. Non pas parce que la technologie est impossible, mais parce qu’elle est socialement et politiquement intenable.
Le risque d’une hyper-concentration du pouvoir
La voiture autonome pose aussi un problème de pouvoir économique. Si la responsabilité est assumée par les entreprises de la tech, ce sont elles qui contrôleront non seulement le marché, mais aussi le cadre juridique et les choix éthiques.
Aujourd’hui déjà, Google, Apple ou Tesla ont plus de données sur nos trajets que les pouvoirs publics. Demain, ils contrôleront directement nos vies quotidiennes sur la route. Cela reviendrait à confier à des multinationales une fonction régalienne : assurer la sécurité des citoyens.
Or, dans une démocratie, la sécurité doit rester une prérogative publique. Sinon, on bascule dans un système où des entreprises imposent leur logique de profit au-dessus des règles collectives.
Des choix politiques plus lourds qu’il n’y paraît
On sous-estime à quel point la voiture autonome pose des choix politiques radicaux. Plus encore que l’IVG ou les lois bioéthiques, elle remet en cause la répartition des responsabilités dans la société.
Car il ne s’agit pas seulement de savoir qui est responsable d’un accident, mais de savoir si l’on accepte qu’une machine décide à la place de l’homme. Une société où les citoyens n’ont plus besoin de conduire est aussi une société où ils n’ont plus à assumer certaines responsabilités fondamentales.
Et l’État, tôt ou tard, devra trancher. Non pas en fonction de la faisabilité technique, mais en fonction de la stabilité sociale et politique. Car déléguer trop de responsabilités à la machine peut miner la confiance collective et fragiliser les fondements de la citoyenneté.
Conclusion : une révolution à double tranchant
La voiture autonome n’est pas une simple innovation. C’est un test pour nos sociétés. Elle promet confort et sécurité, mais soulève des dilemmes immenses : responsabilité juridique, effacement des compétences, intrusion de l’État, pouvoir des entreprises, choix éthiques fondamentaux.
En réalité, l’obstacle n’est pas la technique, mais le politique. La technologie avance, mais la société n’est pas prête à assumer les conséquences. Tesla ou Waymo testent déjà leurs modèles sur les routes américaines, mais les procès et les contestations montrent bien que la marche n’est pas seulement technologique, elle est institutionnelle.
Dans 5 ou 10 ans, il se pourrait que la voiture autonome soit non pas un triomphe, mais une impasse : trop coûteuse, trop risquée, trop lourde de choix politiques pour être viable.
La vraie question n’est donc pas “quand la voiture autonome arrivera-t-elle ?” mais “jusqu’où sommes-nous prêts à laisser la technologie redessiner nos responsabilités ?” Tant que cette réponse n’est pas claire, la voiture autonome restera une promesse incertaine, suspendue entre l’utopie et le cauchemar.
“Déjà sous Septime Sévère, on savait que la technique ne pouvait pas remplacer le rôle social du travail. Une société peut sacrifier de la productivité, mais pas sa stabilité. C’est la même logique qui s’imposera aux voitures autonomes.”