L |
a marine américaine finance un projet de développement de robots ayant des comportements moraux.
Même si le défi de définir à la fois théoriquement ce qu’est la compétence morale de l’homme et de la traduire en règles capables d’être mise en œuvre technologiquement est immense, pour autant que la morale obéisse à des règles formalisables, la tache n’est théoriquement pas impossible.
Certes pour agir moralement les robots devront atteindre un niveau de sophistication et de complexité très au delà de ce que nous connaissons aujourd’hui même dans les réalisations les plus avancés comme l’IBM Watson vainqueur au jeu jeopardize.
Il devra de plus à la fois être muni de possibilités sensorielles complexes et multiformes, de bases de données et de programmes vertigineux, d’objectifs téléologiques opérationnels visant à satisfaire une finalité morale.
Il devra également et peut-être surtout être doué de capacité d’adaptation sans commune mesure avec celles que possèdent les gentils ou méchants robots actuels pour adapter en permanence son comportement en vue de maximiser sa performance visant à satisfaire ses objectifs moraux.
Mais la question n’est théoriquement qu’une question de degré pas de type puisqu’aussi bien la morale se caractérise par un certain nombre de règles logiques et cohérentes dont les philosophes de Platon à Emmanuel Kant se sont acharnés à vouloir définir
Et tout ce qui est entièrement formalisable peut en principe être mis en œuvre dans une machine construite selon les mêmes règles générales. C’est une affaire de technologie.
Pour convertir un robot en un modèle de perfection morale kantienne il suffit de le programmer pour qu’il agisse uniquement "de telle manière que les principes qui le conduisent dans son action puissent devenir lois universelles sans contradiction."
Qu'elles soient empiriquement ou purement rationnelles, ou même postulées sur la base de la révélation surnaturelle, les règles et les règles pour construire des règles peuvent en théorie être intégrées dans des robots.
Depuis des milliers d'années, l’homme a inventé des outils et des machines de plus en plus sophistiqués avec la conviction que leur construction et leur utilisation permettrait d'améliorer nos vies.
Dans la mesure où de tels robots pourraient rendre notre vie meilleure, nous devrions dès lors les construire.
Mais dire que les robots pourraient être moraux n'est pas seulement de décrire leurs comportements, c’est aussi nous engager à certains types de comportements à leur égard.
Notre réticence actuelle pour traiter des machines comme les hommes n'est que la conséquence des différences fonctionnelles observables entre les hommes et les machines existantes de nos jours.
Si ces différences disparaissaient progressivement, notre réticence devrait s’estomper.
De nos jours nous préférons déjà des machines aux hommes pour un grand nombre d'opérations complexes avec parfois comme enjeu notre survie. Elles font voler nos avions, pilotent nos navires, dirigent nos usines automatisées, contrôlent des patients sans intervention humaine… etc.
Les machines et les outils font partie intégrante de la culture humaine et les robots moraux ne sont peut-être simplement qu’une inévitable évolution de l’emprise de la technologie sur notre devenir.
La tâche est certes immense et ce n’est probablement pas demain la veille que nous pourrons nous appuyer sur de telles machines pour guider moralement nos actions.
Mais il est probablement aussi inconséquent d’hausser les épaules à cette évocation que de se voir plonger dans une post humanité où l’homme aurait définitivement confié la marche du monde à des machines conçues par lui-même. Même si dans l’hypothèse, certes aujourd’hui peu probable, où nous parviendrions à construire une machine plus sage que l’homme lui-même, il serait logique de lui transférer le contrôle des nos actions, pour le bien et l'épanouissement humain.
Peut-être que les recherches financées par la marine américaine ne sont qu’un prétexte pour rassurer l’opinion sur la finalité des armes de plus en plus robotisées qui remplacent l’homme.
Peut-être que l’opinion est choquée des attaques aveugles et meurtrières de drones qui frappent, sans risque aucun pour ceux qui les actionnent, des populations au prétexte d’éliminer de dangereux terroristes.
Ces recherches ouvrent cependant une voix qui risque de modifier profondément notre regard sur ces machines dont nous avons la naïveté de croire que le fonctionnement est sous notre entier contrôle alors même que nous en dépendons aujourd’hui très largement sans pouvoir affirmer sérieusement que nous en contrôlons toutes les actions.
Patrice Leterrier
20 mai 2014