En 1942, Isaac Asimov élaborait les trois lois de la robotique : 1 : Un robot ne peut porter atteinte à un être humain, ni, restant passif, permettre qu’un être humain soit exposé au danger, 2 : Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la Première loi, 3 : Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la Première ou la Deuxième loi. On peut se poser la question de savoir où se situent aujourd’hui les rapports qui unissent l’homme et sa créature le robot, à la lecture du récent article, Ethical trap: robot paralysed by choice of who to save (http://www.newscientist.com/article/mg22329863.700?cmpid=NLC%7CNSNS%7C2014-0918-GLOBAL&utm_medium=NLC&utm_source=NSNS&#.VB_Lc11xlYc), écrit par Alan Winfield (http://www.ias.uwe.ac.uk/~a-winfie/) . Le problème est celui de la prise de conscience d’un processus tout à fait particulier, celui d’un choix entre deux situations identiques mais qui peuvent s’exclure l’une l’autre ? Si le robot dans près de la moitié des cas, prend tellement de temps pour faire son choix que l’action lui échappe, qu’en est-il lorsque la même expérimentation est proposée à l’homme ? Dans quelle mesure ce dernier réussira-t-il cent fois sur cent sa mission : effectuer le sauvetage des deux individus en position dangereuse ? Le particularité du problème posé par la situation décrite, est d’insister sur le faire, pour lequel l’homme, ne peut faire l’économie du jugement puis de la justification. Se pourrait-il que ce qui est encore une spécificité humaine, devienne par le miracle des algorithmes une qualité supplémentaire des robots ? Où comment on peut retrouver cette question engendrée par le scientisme du XIX° siècle : le progrès est-il synonyme d’amélioration du futur ?
Tags: choix éthique, homme, robot