Jochanan Eynikel
‘L’innovation générant un avantage collectif ne convient pas nécessairement sur un plan individuel’
Les voitures autonomes rouleront assurément de manière plus durable, causeront moins d’accidents et réduiront aussi les embouteillages. Mais ces avantages collectifs ne peuvent avoir comme conséquence que l’on élude d’autres défis moraux à un niveau individuel, déclare Jochanan Eynikel, expert en entreprenariat à orientation humaine et en réflexion du futur.
L’homme constitue le principal obstacle à la percée de la voiture autonome, comme le titrait le Financial Times la semaine dernière (FT 30 août 2016). Nous craignons de devoir céder le contrôle de notre voiture qui ne serait alors pas assez sûre ou qui poserait de terribles dilemmes en cas d’accident inévitable.
C’est vrai que ces réflexions représentent aujourd’hui des défis concrets pour les constructeurs automobiles et les entreprises technologiques. Surtout à présent que plusieurs géants technologiques tentent de se tirer la bourre pour être le premier à effectuer une percée avec une voiture sans chauffeur. A Singapour, la start-up NuTonomy effectue déjà des tests avec le premier taxi autonome et dame ainsi le pion à Uber qui envisage le même projet avec Volvo. Google défie à son tour Uber en développant un service de covoiturage automatisé. Quant à BMW et Ford, elles veulent d’ici cinq ans commercialiser une voiture autonome. Cela bouge donc fort sur le marché automobile high-tech.
Prétendre que l’homme constitue un obstacle au déploiement de cette technologie, c’est cependant faux. C’est comme si l’application de la technologie était un but en soi. Or l’innovation technologique ne doit-elle pas être au service de l’homme? N’est-il donc pas sensé que les innovateurs fassent preuve de circonspection dans le déploiement des nouvelles technologies? Surtout lorsqu’il s’agit de machines autonomes qui doivent opérer dans un contexte délicat et complexe comme le trafic routier.
Moins de tués grâce au pilotage automatique de Tesla
Pour les entrepreneurs visionnaires comme Elon Musk, le déploiement de cette technologie ne va pas assez vite. Après l’accident mortel dont a été victime une personne à bord d’une voiture Tesla semi-autonome en mai de cette année, il signala qu’il “convient de faire tout simplement le calcul” pour voir où l’on en est. Une voiture classique ferait aujourd’hui une victime tous les 150 millions de kilomètres. Avec le système de pilotage automatique semi-autonome de Tesla, la moyenne est à présent d’1 victime tous les 200 millions de kilomètres. Conclusion: la technologie autonome est plus sûre et pourrait donc avantageusement remplacer dans les plus brefs délais le conducteur humain, qui est assez facilement distrait, fatigué et irresponsable.
‘L’innovation générant un avantage collectif ne convient pas nécessairement sur un plan individuel’
J’espère aussi que la voiture autonome va percer. Les voitures autonomes rouleront assurément de manière plus durable, causeront moins d’accidents et réduiront les embouteillages. Mais ces avantages collectifs ne peuvent avoir comme conséquence que l’on élude d’autres défis moraux à un niveau individuel. Je pense qu’il y a une erreur de jugement morale dans l’idée que l’innovation fournit un avantage collectif, même si elle est intéressante sur un plan individuel.
Surtout si des vies humaines sont en jeu. Personne n’accepterait par exemple un système, où les pouvoirs publics sacrifieraient chaque année un certain nombre de citoyens en bonne santé pour sauver avec leurs organes tout un ensemble de citoyens malades. Le gain collectif – moins de tués – ne pèse ici rien eu égard aux principes déontologiques comme l’équité et la certitude d’exister sur un plan individuel. Cela s’applique aussi à la technologie qui offre sans nul doute des avantages au niveau collectif, mais qui peut causer individuellement pas mal de dommages. Comme quand une voiture autonome ne peut éviter un accident et doit choisir entre la sécurité des passagers et celle des autres usagers de la route.
Toujours suivre la loi?
Comment traiter les voitures autonomes – ou d’autres machines intelligentes telles des robots – dans des situations à connotation morale, c’est là un défi nouveau. Selon quels principes les algorithmes des voitures autonomes doivent-ils être élaborés? Faut-il toujours suivre la loi? Le problème, c’est que l’éthique et la loi ne convergent pas toujours. Il est ainsi parfois préférable d’enfreindre la loi pour éviter un dommage plus grand. Comme par exemple franchir une ligne blanche continue pour ne pas écraser un piéton qui traverse subitement la route. Faut-il toujours éviter tant de victimes que possible? C’est assurément là un principe valable, mais pas non plus salvateur. Une voiture autonome doit-elle par exemple sacrifier le passager qu’elle transporte, afin d’épargner la vie de trois personnes qui traversent au rouge? Et qu’en est-il dans le cas d’enfants? Le fondement consistant à considérer la vie humaine d’un point de vue purement quantitatif, n’est pas aussi ‘correct’ dans toutes les circonstances.
‘Les conducteurs humains ne font pas nécessairement mieux, mais ils disposent aussi de peu de temps pour y réfléchir.’
La technologie autonome devra apprendre à gérer l’aspect éthique. Les conducteurs humains ne font pas nécessairement mieux, surtout pas dans des situations de crise, mais ils disposent aussi de peu de temps pour y réfléchir. Même si l’issue est parfois douloureuse, l’on comprend que des gens réagissent parfois instinctivement, voire en panique en cas d’accident de la circulation. Cette ‘excuse’ ne vaut pas pour les voitures autonomes, où les programmeurs et les constructeurs se voient présenter ces scénarios, avant même qu’ils ne se manifestent réellement. Pour 100 pour cent des voitures autonomes, la responsabilité morale se déplace du conducteur vers le programmeur. Donnons-leur donc le temps d’humaniser quelque peu la voiture automatisée, avant de la lancer dans le trafic.
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici