Si selon le dictionnaire de l’Académie Française, l’hallucination est « Une fausse perception qui se forme chez un sujet éveillé » comment l’IA peut-elle avoir des hallucinations ? En réalité, c’est plutôt l’utilisateur de l’IA qui hallucine quand il découvre, incrédule, les réponses inventées que lui donne sans vergogne, son système intelligent préféré (Can we curb AI’s hallucinations?). Quelles soient ou non qualifiées d’hallucinations ou d’erreurs leur pourcentage peut être particulièrement élevé selon les auteurs. Il est de fait que ces erreurs pourraient être assimilées à des hallucinations dans la mesure où le système les a non seulement inventées mais encore ne les reconnaît aucunement comme fausses voire même persiste dans ses erreurs. Le problème est donc de savoir si ce défaut peut être éliminer autrement que par des systèmes de vérification externes. Il n’est pas impossible que ces dérapages soient la contrepartie de ce dont se nourrit le système selon la paraphrase « Trop de données tue les données » assertion à laquelle il convient d’ajouter la personnalité du/ des donneurs d’informations. D’où la règle intangible, ne jamais faire une confiance aveugle à la machine, et savoir garder un œil averti sur ses résultats. Mais comme on n’arrête pas le progrès il convient d’ajouter à ces hallucinations, son nouveau pouvoir, celui d’autoréplication (AI can now replicate itself — a milestone that has experts terrified), car on entre alors dans une autre dimension ! L’homme serait alors confronté à un taux de réplication incontrôlable pouvant mener par le biais de mécanismes d’autosurveillance à des comportements malveillants envers l’utilisateur avec pour finalité l’autoconservation du système ! A bas le monde dystopique, bienvenue dans la réalité !
