Si l’on utilise le terme d’Intelligence artificielle, l’article Treat AI as you would want to be treated peut ne pas être inintéressant. Par contre parler d’automate numérique, élimine toute implication éthique dans la mesure où la référence est à l’évidence une machine. Ainsi le terme même d’intelligence est-il dès le départ connoté, l’intelligence étant plus aisément attribuée à l’être vivant qu’à un mécanisme totalement artificiel. C’est la raison pour laquelle selon le terme retenu, il peut sembler licite ou totalement illicite de se poser la question d’une éthique allant de paire avec le qualificatif d’artificielle. Peut-il y avoir ou non accession à une certaine conscience, acquisition d’expériences subjectives ? Si la réponse est affirmative, il est indispensable de mettre en place un environnement éthique adapté; Mais comme on peut s’en douter, la difficulté va être de pouvoir être « affirmatif » : comment est-on en mesure de détecter si l’Intelligence artificielle qui fait face sait se poser la question « Ai-je peur de la mort ? ». Comme le disent les auteurs de l’article « Il n’y a pas de mal à se poser la question » : et rien n’est répréhensible à le faire. Dans la mesure où c’est Isaac Asimov, et lui seul qui a édicté les lois de la robotique dans un autre temps, il n’est peut-être pas inutile de prendre les devants, le cadre s’étant considérablement modifié !
Rappel des trois lois d’Isaac Asimov 1)Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger ; 2)Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres entrent en contradiction avec la première loi ; 3)Un robot doit protéger son existence dans la mesure où cette protection n’entre pas en contradiction avec la première ou la deuxième loi.