‘Si l’avenir n’est pas doré, nous ne le devrons qu’à nous-mêmes et pas aux robots’

Jochanan Eynikel, auteur du livre 'Robot aan het stuur'. © Jan Locus
Wim Kopinga Redacteur DataNews.be

Les robots deviennent toujours plus malins grâce à l’intelligence artificielle. Ils pourraient à l’avenir prendre eux-mêmes des décisions, y compris de vie et de mort. ‘Mais l’homme doit garder le contrôle sur ce qu’il confie à l’ordinateur’, affirme Jochanan Eynikel, auteur du livre écrit en néerlandais ‘Robot aan het stuur’.

Ces dix prochaines années, notre vie changera plus que durant les cinquante dernières. Selon les chercheurs de McKinsey, soixante pour cent de tous les emplois seront en effet automatisés. Car d’ici une décennie, l’intelligence artificielle (AI) ne sera plus l’avenir car elle fera entièrement partie de notre vie avec tout ce que cela impliquera. ‘Nous abordons une période, où la technologie deviendra toujours plus déterminante. Le fait est que la technologie remplacera de plus en plus l’homme, au point de le supplanter’, déclare Jochanan Eynikel, philosophe et expert en réflexions sur l’avenir chez ETION. Il est l’auteur du livre ‘Robot aan het stuur’, dont le thème central est de savoir comment continuer d’entreprendre humainement dans un monde où la technologie remplacera de plus en plus l’homme.

Depuis la révolution industrielle, notre vie a radicalement changé. Le bien-être qu’elle a engendré, est allé de pair avec l’apparition des syndicats et de la sécurité sociale, mais tout cela a pris des décennies. L’homme a eu le temps de s’y adapter. Ce n’est pas comme si une usine s’implantait subitement et automatisait tout le travail en son sein. Non, le processus s’est déroulé de manière progressive. ‘Mais à présent, la technologie évolue nettement plus vite’, prétend Eynikel. ‘Et comme la technologie exerce toujours une influence sur le comportement humain, il est préférable de réfléchir déjà à ce que sera cet impact dans le futur. Cela se fera dans un contexte, où la technologie évoluera de manière toujours plus rapide et radicale.’

Lun des thèmes centraux de votre livre est de savoir à quelles réponses les robots pourront répondre

Jochanan Eynikel: Lorsqu’on envisage l’avenir, il ne faut pas vouloir tout définir. Cela ne me paraît pas une bonne idée. Sous l’impulsion de Stephen Hawking et d’Elon Musk, on a déjà stipulé 23 principes auxquels l’intelligence artificielle doit satisfaire. Parmi eux, on trouve déjà un certain nombre de règles essentielles, comme celles selon laquelle l’AI doit viser l’intérêt général, qu’il nous faut éviter les armes mortelles autonomes et que l’homme doit garder le contrôle sur ce qu’il confie à l’ordinateur. Cela ne signifie du reste pas que nous ne pourrons pas disposer de voitures autonomes, mais bien que nous aurons réfléchi à propos des implications juridiques et morales au cas où il y aurait des accidents mortels inévitables. Selon quels principes, le robot devra-t-il opérer aux commandes?

Selon quels principes, le robot devra-t-il opérer aux commandes?

On parle alors dune législation future proof. Le Parlement européen sen occupe déjà et recherche des normes éthiques pour systèmes autonomes. Quel en est lintérêt?

Eynikel: Il faut remettre en question la législation actuelle, mais créer en même temps un cadre pour les innovations. Prenez par exemple le débat sur les armes entièrement autonomes: le Parlement européen notamment en a déjà promulgué une interdiction. Nombreux sont ceux qui ne veulent pas d’une arme qui prenne une décision de vie ou de mort de manière autonome. Mais c’est pertinent aussi pour les voitures, si elles doivent décider de la vie de personnes dans des situations dangereuses. En outre, la responsabilité peut varier: si le chauffeur de la voiture autonome ne la conduit plus, il peut être difficilement tenu pour responsable du comportement de la voiture. Il faut alors envisager des systèmes d’assurance pour les constructeurs, plutôt que mettre en cause le conducteur.

'Si l'avenir n'est pas doré, nous ne le devrons qu'à nous-mêmes et pas aux robots'
© Jan Locus

Que faudrait-il prévoir dans ce genre de cadre?

Eynikel: Le Parlement européen suggère d’attribuer une personnalité juridique aux robots, comparable à celle d’organisations. Cela signifie que les robots pourraient jouir de certains droits (comme le copyright), mais qu’ils pourraient aussi être tenus responsables pour des dommages causés par le biais des propriétaires qui les représentent. C’est le genre de chose qu’ils convient d’examiner conjointement avec des esprits éthiques, techniciens, décideurs et experts en assurance.

Un ordinateur recourt à des approches mathématiques. Comment pourrait-il à l’avenir prendre des décisions ‘humaines’ en sachant qu’un tas de nos décisions ne sont pas rationnelles.

Eynikel: Cette question m’échappe parfois dans les diverses théories de disruption sur le tsunami technologique qui nous attend. J’ai dernièrement tenu une conférence, où quelqu’un me demanda pourquoi les robots ne peuvent poser des actes éthiques, mais c’est précisément quelque chose pour lequel le robot n’est pas destiné. Il est fait conçu pour la puissance de calcul et la vitesse.

Comment un robot pourrait-il par exemple aborder le travail des enfants, au cas où il devrait prendre des décisions en matière de gestion et de direction d’entreprise? Comment pourrait-il en arriver à envisager négativement le travail des enfants? Nous, du moins un grand nombre de grandes entreprises, y avons mis fin, alors que c’était pourtant plus efficient et plus économique. Nous avons considéré le phénomène par la négative pour des raisons morales et de pression sociale – voilà à quoi sert l’éthique. Un ordinateur en arriverait peut-être à la même décision sur base de calculs, parce qu’il considérerait que le travail des enfants ne pourrait profiter à la société. Mais l’ordinateur ne peut de lui-même être moralement conscient d’un phénomène qu’il ne peut accepter.

Elon Musk, le directeur de Tesla et de SpaceX, se préoccupe du fait que les robots soient en fin de compte trop intelligents, ce qui réduirait lhomme à une espèce danimal domestique au service de systèmes doués de lintelligence artificielle.

Il est bon de réfléchir à des scénarios défaitistes pour pouvoir les éviter, mais l’ordinateur ne possède absolument pas encore de volonté propre.

Eynikel: Je ne me fais pas de souci à ce sujet – même si je dis que ce n’est pas impossible -, mais ces propos démontrent que quelqu’un qui y investit beaucoup et qui tient les rênes, a conscience qu’il ne s’agit pas d’une technologie normale. En tout cas, c’est une technologie qui a un très gros impact.

Mais pourquoi un robot voudrait-il nous dominer? Cela signifierait qu’ils développent alors une prise de conscience leur permettant de décider de prendre le dessus sur l’homme. Il est bon de réfléchir à des scénarios défaitistes pour pouvoir les éviter, mais l’ordinateur ne possède absolument pas encore de volonté propre. Si l’ordinateur en venait finalement à décider de tuer le plus possible d’humain, c’est que nous y serions pour quelque chose. Mais ce ne serait pas la volonté de la machine elle-même.

Dans votre livre, vous évoquez un ouvrage célèbre sur cette matière, ‘The Second Machine Age’:As we have fewer constraints on what we can do, it is then inevitable that our values will matter more than ever.’ Envisagez-vous un avenir doré pour lintelligence artificielle à une époque où le président Trump est au pouvoir et où on assiste de plus en plus à la montée du populisme en Europe?

Eynikel: Sur le plan technologique, je vois un doré léger. De toute façon, c’est l’homme qui décidera si l’avenir sera doré ou noir. Je suis parfois dérangé à l’idée que la technologie nous submerge comme une espèce de phénomène naturel contre lequel on ne peut rien. En fin de compte, il y a des gens et des entreprises qui ont les commandes en main. Nous aurons toujours davantage besoin de la technologie pour résoudre les problèmes dans les domaines des soins de santé et du réchauffement de la Terre. Je pense que la technologie sera alors une bénédiction, à condition que nous nous en servions de manière contrôlée.

Après la nomination de Trump, l’avenir m’est apparu quand même moins rose en raison du durcissement du paysage politique, mais après les élections aux Pays-Bas, j’ai vu heureusement que le bon sens l’a emporté. Si l’avenir n’est pas doré, nous ne le devrons qu’à nous-mêmes et pas aux robots.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire