Agents moraux artificiels

https://www.philomag.com/sites/default/files/styles/newsarticle1x1/public/images/web-machine-niv-3.jpg
  1. Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger, 2 : Un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi : 3) Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi. Il s’agit là des trois lois de la robotique selon I. Asimov. En 1942, tous les robots à cerveau “positronique “se doivent d’obéir impérativement à ces principes qui s’apparentent à une conscience en fait assez proche de celle des humains. Aujourd’hui certains se posent la question de savoir s’il n’existe pas un biais de recrutement à visée thérapeutique en raison de l’utilisation d’algorithmes. Ce biais se traduit par un choix défavorisant la population noire au regard d’une donnée biologique affectée d’un “facteur de correction basé sur la race” (Is a racially-biased algorithm delaying health care for one million Black people?, https://www.nature.com/articles/d41586-020-03419-6) . Et c’est alors qu’intervient le concept d’algorithme équitable (What Does a Fair Algorithm Actually Look Like?, https://www.wired.com/story/what-does-a-fair-algorithm-look-like/). Or l’algorithme, un des piliers de l’intelligence artificielle, a pour finalité un acte décisionnel qui doit être le plus juste, voire plus juste que celui qu’un homme pourrait prendre. Une éthique de l’intelligence artificielle a donc vu le jour : elle doit répondre à des agents moraux artificiels en fonction des quels la machine deviendrait responsable mais comment ?

Tags: , ,

Leave a Reply

Vous n'êtes pas un robot, n'est-ce pas ? *