Comme tout texte peut être illustré, se poser la bonne question, c’est à dire chercher à établir la véracité du propos n’est plus suffisant. Il est en effet devenu tout aussi indispensable de poser la même question à propos de l’image. Il n’y a en effet aucune raison pour qu’existât une différence de traitement entre un texte et une image en ce qui concerne l’IA. Si l’homme est bien à l’origine de ses connaissances, il n’en reste pas moins vrai qu’elle a dépassé le premier stade, celui de l’apprentissage pour aborder les rives du raisonnement. Si l’introduction de fausses références dans un texte par exemple, est aujourd’hui parfaitement connue, la forme parfaite mais imaginaire donnant naissance à des réponses est maintenant à l’ordre du jour. Or il existe plusieurs domaines, dont celui de la médecine n’est pas le moindre, qui adossent leurs résultats à la description de l’image (AI ‘mirages’ mean tools used to analyze medical scans could fabricate their findings). En fait l’IA utiliserait plus volontiers les schémas en sa possession pour résoudre le problème posé, que les éléments factuels qui devraient lui permettre d’apporter la solution à la question posée. L’illusion d’optique humaine résulte de façon similaire d’une interprétation erronée des information qui lui parviennent. Le danger est que la réponse de l’IA est tenue pour plus péremptoire qu’ouverte à discussion et qu’elle aurait ainsi tendance à faire foi, il est donc urgent d’être en mesure de vérifier l’intégration intermodale régissant le fonctionnement de l’IA.
Posts Tagged ‘IA’
Les images aussi !
vendredi, avril 10th, 2026Imposture intellectuelle
jeudi, avril 9th, 2026En 1996, la revue de sciences humaines Social Text publie un article scientifique Transgresser les frontières : vers une herméneutique transformative de la gravitation quantique. Le but des auteurs n’était pas tant de dévaloriser certains travaux scientifiques contemporains que de montrer la vacuité de l’utilisation de différents concepts portés par le postmodernisme à propos des discours scientifique et philosophique. En France il initia des discours passionnés surtout dans la mesure où il fut pris au pied de la lettre et non pas comme un pastiche scientifico-philosophique. Dans la deuxième moitié de XVIIIème siècle une autre supercherie avait aussi enflammé les milieux littéraires à propos d’un barde écossais du IIIème siècle Ossian, et de ses poèmes qui s’avérèrent être des faux, ce qui devait grandement troubler les tenants d’une identité gréco-romaine et non pas celtique. C’est pourquoi, si en l’an de grâce 2026, des scientifiques inventent une nouvelle maladie, la bixonimanie ( Why scientists made up a fake disease), il n’y a vraiment aucune raison de s’inquiéter ! Les auteurs avaient dissimulés dans l’article, tels des signes de piste, des informations qui permettaient de conclure à la contrefaçon, mais tels des lecteurs antérieurs l’IA reproduisit l’article qu’elle référença tout à fait comme un humain lambda dans des travaux ultérieurs. En réalité ce qui est important dans les trois exemples précédents n’est pas l’intrusion de l’IA dans le paysage, mais que dans toute situation, il faut savoir poser la BONNE QUESTION, savoir interroger la réalité du propos. Même si les erreurs de l’IA ne reposent pas sur les mêmes processus que l’erreur humaine, in fine elles peuvent avoir la même traduction !
Introspection
mardi, février 3rd, 2026Tout regard sur soi-même est une plongée dans UN intime en quête de ses motivations, mais en réalité une démarche peu sûre car celui qui s’y adonne en connaît mal les cheminements profonds et tout aussi mal le résultat de la dite démarche. Néanmoins, il est presque certain que seul l’homme en est capable, dans la mesure où peu nombreux sont les animaux qui se reconnaissent comme entité pensante. En fait la première question concerne le besoin qu’aurait l’IA d’avoir et d’accéder à SA conscience or la réponse concerne l’utilisateur de la dite IA et non pas l’IA en propre. C’est au vu et au su d’erreurs qui lui seraient imputables et dont pâtirait l’utilisateur que cette dernière aurait besoin de réfléchir sur elle-même. (Giving AI the ability to monitor its own thought process could help it think like humans) ? Mais pour y arriver il semble bien qu’il n’existe que des méthodes humaines pour y parvenir et dans ces conditions il ne reste plus qu’à insuffler à la machine les réseaux neuronaux pour y accéder. La machine n’y est pour rien, l’homme est toujours son souffle de vie même si la multiplication des réseaux lui permet d’apprendre et de donner des réponses dans un temps qui se rapproche de l’immédiateté et de la vérité si cette dernière est considérée comme en adéquation avec la réalité ! Un deuxième article (AI has already won the ‘imitation game’) vient compléter le précédent dans la mesure où il permet de verser au dossier des arguments à partir du test de Turing (1950). Ne reste plus qu’à définir l’intelligence humaine, ce qui constitue déjà un vaste projet, pour affirmer ou nier l’existence d’une réelle « intelligence » artificielle telle que définie par Turing. L’homme a peut-être dévoilé (Heidegger), un nouveau type d’intelligence tel que « Notre rôle dans le monde et notre compréhension de l’esprit en seront transformés« .
Vivifiant ou délétère ?
vendredi, janvier 16th, 2026Le biais cognitif se caractérise par la propension qu’un sujet à de chercher, voir, retenir tout ce qui s’inscrit dans un schéma, son schéma, qui a quitté la réalité pour être perçu à sa façon. Si cette description semble un peu facile sinon simpliste elle traduit néanmoins une distorsion de la réalité, une atteinte de la rationalité de l’individu qui en fait montre. Or aujourd’hui les applications courantes des acquisitions scientifiques se sont accélérées à un point tel que leur perception s’apparente plus à de la magie inexplicable qu’à la normalité. C’est la raison pour laquelle après avoir loué « trop tôt » les services qu’allait rendre l’IA, il est devenu de bon ton de la vouer au gémonies, voire à imaginer de l’interdire sans autre forme de procès ! C’est pourquoi si l’on désire regarder en face ce nouveau produit démoniaque, on pourrait lire un article récent qui traite du sujet pour le démystifier : AI can spark creativity — if we ask it how, not what, to think. L’idée est simplissime et universelle : tout nouvel outil requiert un nouveau mode d’emploi qui lui soit spécifique, c’est à dire dont la finalité ne soit pas dévoyée. Le marteau a été créé pour taper sur un clou par sur la tête de son voisin ! Et donc savoir utiliser l’IA, c’est savoir lui poser les bonnes questions, pas lui demander de répondre à la place de celui qui l’a créée mais de lui fournir les éléments de réponse qui ne sont pas tous simultanément et dans l’instant en sa possession.
Socrate et l’IA
mardi, septembre 30th, 2025Parce que l’esclave du Ménon (qui n’a pas de nom !) ne connaît rien de la géométrie, Socrate démontre par le biais de la maïeutique que « la vérité des choses est en nous « . La question qu’il lui a posé « comment faire pour doubler la surface d’un carré » il y a presque deux mille cinq cents ans est justement celle qui a été choisie pour être posée à l’IA, (Scientists asked ChatGPT to solve a math problem from more than 2,000 years ago — how it answered it surprised them). Si « Socrate parvient finalement à faire accoucher l’esclave de la connaissance des propriétés géométriques » qu’en est-il de la machine, quand on ne sait pas trancher entre l’inné et l’acquis ! Et imaginer que la machine pourrait apporter une réponse peut sembler assez cocasse ! Néanmoins il est vrai que la réponse de la machine exprime sa capacité à utiliser ses données, soit directement car elle a déjà la réponse, soit par un jeu de réseaux neuronaux. Réponse de la machine : il n’y a pas de solution géométrique à la question posée. S’il est ainsi prouvé que l’innéité n’est pas le propre de la machine, le résultat invite surtout à apprendre aux utilisateurs des différentes IA que savoir poser la question est le temps essentiel de la démarche, et qu’il faut ne jamais perdre de vue que ses réponses peuvent être fausses. Méfiance et circonspection !
La malveillance est partout !
vendredi, août 1st, 2025Isaac Asimov n’en finit pas de se retourner dans sa tombe ! Les lois de la robotique ont sombré dans un puits si profond qu’il est peu probable qu’elles refassent surface spontanément. C’est l’homme et lui seul qui pourrait y apporter remède grâce à la surveillance de tous les instants de ses créations qui sont en passe de devenir démoniaques. En cause ; la chaîne de pensée qui » guide les modèles d’IA pour qu’ils raisonnent étape par étape, ce qui les aide à résoudre des tâches complexes avec plus de précision que la simple prédiction du mot suivant ». Le problème vient, en ce qui concerne les systèmes les plus élaborés, que certaines des étapes empruntés par la machine peuvent échapper à la surveillance humaine (AI could soon think in ways we don’t even understand — evading our efforts to keep it aligned — top AI scientists warn). Dans la mesure où une IA sophistiquée est alimentée par d’innombrables données, elle peut fort bien sauter l’étape chaîne de pensée, tout autant que des étapes intermédiaires. Il ne faut pas non plus négliger le fait que en fonction de leur « alimentation », elles peuvent également générer des informations inexistantes et donc fausses, il s’en suit l’erreur de fin de course, erreur que rien n’empêche d’être préjudiciable à l’opérateur. Il est donc évident que si l’on ne peut pas avoir connaissance de toutes les étapes, il va être indispensable d’inclure dans le système lui-même un moyen de surveillance que l’IA ne sera pas en mesure de détecter ! Il ne s’agit encore que de suppositions de la part des concepteurs et des utilisateurs mais il semble bien que la vision humaine de la machine soit devenue particulièrement sombre quand il fut un temps où la technique était l’avenir de l’homme !
La machine qui questionnait le vivant
mercredi, juillet 9th, 2025Parce que le centaure de la mythologie était un animal fabuleux mi homme/mi cheval, il n’est peut être pas étonnant de l’avoir choisi comme intitulé d’un système performant d’IA. Et ce d’autant plus que le plus sage d’entre eux (mais ils ne l’étaient pas tous !) Chiron, fut l’éducateur de nombreux et célèbres personnages parmi lesquels, Achille, Heracles, Asclepios. Était-ce parce qu’il était sage parmi les sages qu’il préféra la mort a l’éternité, l’histoire ne le dit pas. Toujours est-il que ce nouveau Centaure se démarque des autres systèmes d’IA puisqu’il est en mesure de traiter plusieurs tâches simultanément, ce qui jusqu’à présent restait une prérogative de l’espèce humaine (AI knows what you’ll do before you do). Plus encore il a été capable de prédire « les choix des individus dans des tâches pour lesquelles il n’avait pas été entrainé ». Ces résultats reposent sur l’utilisation d’un nombre exceptionnel de données qui lui ont été fournies et qu’il est en mesure de traiter. Si ces résultats peuvent dans le futur être source d’une aide dans le domaine de la psychologie humaine, ils posent aussi une question de taille : jusqu’à quel point le comportement humain est-il structuré ?
Tout et son contraire
vendredi, juin 27th, 2025Quel que soit le chemin que va prendre la société, il va falloir abandonner le fleuve de l’instantanéité pour regagner les berges des promenades où le temps prend le temps de mener à la réflexion. Il va falloir s’imprégner de l’idée que le biais cognitif est à formellement reconnaître pour le combattre, il va falloir de nouveau accepter de comparer, de discuter en évitant tout dogmatisme ; en somme en revenir au temps que les moins de vingt ne peuvent pas connaître. L’urgence est une réalité, comme en témoignent quatre articles parus entre le 21 et le 25 Juin : 1) Does using ChatGPT change your brain activity? Study sparks debate, 2) What we lose when we use AI, 3) New study claims AI ‘understands’ emotion better than us — especially in emotionally charged situations et pour terminer, 4) AI hallucinates more frequently as it gets more advanced — is there any way to stop it from happening, and should we even try? A noter que les deux derniers pourraient faire l’objet de films dystopiques dont le monde actuel raffole. En effet l’une insiste sur l’augmentation des « hallucinations » dont souffrent les systèmes les plus récents d’IA. Le problème étant que certaines de ces hallucinations sont vraies tandis que d’autres sont fausses et qu’il est impératif de démêler le vrai du faux ! L’autre intervient dans un autre domaine encore plus effrayant celui où l’IA devient sensible aux émotions dans certaines situations particulières ! L’univers d’Isaac Asimov était plus sain que celui de Philip K. Dick ! Quant aux deux premiers, il remettent au goût du jour l’opinion platonicienne selon laquelle il convient de se détourner des livres car leur lecture rend la mémoire inutile ! A l’appui, une expérimentation récente montrerait que l’utilisation de Chat GPT diminue la sollicitation cérébrale ! Qu’apprennent ces quatre articles, la circonspection ! Comment-est il possible raisonnablement de tirer profit d’informations contradictoires, si ce n’est en n’abandonnant pas la recherche d’autres études de façon à pouvoir comparer sans préconçus. Il n’est jamais indispensable de se faire une opinion dans la minute qui suit une lecture !
J’hallucine dit l’IA !
lundi, janvier 27th, 2025Si selon le dictionnaire de l’Académie Française, l’hallucination est « Une fausse perception qui se forme chez un sujet éveillé » comment l’IA peut-elle avoir des hallucinations ? En réalité, c’est plutôt l’utilisateur de l’IA qui hallucine quand il découvre, incrédule, les réponses inventées que lui donne sans vergogne, son système intelligent préféré (Can we curb AI’s hallucinations?). Quelles soient ou non qualifiées d’hallucinations ou d’erreurs leur pourcentage peut être particulièrement élevé selon les auteurs. Il est de fait que ces erreurs pourraient être assimilées à des hallucinations dans la mesure où le système les a non seulement inventées mais encore ne les reconnaît aucunement comme fausses voire même persiste dans ses erreurs. Le problème est donc de savoir si ce défaut peut être éliminer autrement que par des systèmes de vérification externes. Il n’est pas impossible que ces dérapages soient la contrepartie de ce dont se nourrit le système selon la paraphrase « Trop de données tue les données » assertion à laquelle il convient d’ajouter la personnalité du/ des donneurs d’informations. D’où la règle intangible, ne jamais faire une confiance aveugle à la machine, et savoir garder un œil averti sur ses résultats. Mais comme on n’arrête pas le progrès il convient d’ajouter à ces hallucinations, son nouveau pouvoir, celui d’autoréplication (AI can now replicate itself — a milestone that has experts terrified), car on entre alors dans une autre dimension ! L’homme serait alors confronté à un taux de réplication incontrôlable pouvant mener par le biais de mécanismes d’autosurveillance à des comportements malveillants envers l’utilisateur avec pour finalité l’autoconservation du système ! A bas le monde dystopique, bienvenue dans la réalité !









