Parce que l’esclave du Ménon (qui n’a pas de nom !) ne connaît rien de la géométrie, Socrate démontre par le biais de la maïeutique que « la vérité des choses est en nous « . La question qu’il lui a posé « comment faire pour doubler la surface d’un carré » il y a presque deux mille cinq cents ans est justement celle qui a été choisie pour être posée à l’IA, (Scientists asked ChatGPT to solve a math problem from more than 2,000 years ago — how it answered it surprised them). Si « Socrate parvient finalement à faire accoucher l’esclave de la connaissance des propriétés géométriques » qu’en est-il de la machine, quand on ne sait pas trancher entre l’inné et l’acquis ! Et imaginer que la machine pourrait apporter une réponse peut sembler assez cocasse ! Néanmoins il est vrai que la réponse de la machine exprime sa capacité à utiliser ses données, soit directement car elle a déjà la réponse, soit par un jeu de réseaux neuronaux. Réponse de la machine : il n’y a pas de solution géométrique à la question posée. S’il est ainsi prouvé que l’innéité n’est pas le propre de la machine, le résultat invite surtout à apprendre aux utilisateurs des différentes IA que savoir poser la question est le temps essentiel de la démarche, et qu’il faut ne jamais perdre de vue que ses réponses peuvent être fausses. Méfiance et circonspection !
Posts Tagged ‘IA’
Socrate et l’IA
mardi, septembre 30th, 2025La malveillance est partout !
vendredi, août 1st, 2025Isaac Asimov n’en finit pas de se retourner dans sa tombe ! Les lois de la robotique ont sombré dans un puits si profond qu’il est peu probable qu’elles refassent surface spontanément. C’est l’homme et lui seul qui pourrait y apporter remède grâce à la surveillance de tous les instants de ses créations qui sont en passe de devenir démoniaques. En cause ; la chaîne de pensée qui » guide les modèles d’IA pour qu’ils raisonnent étape par étape, ce qui les aide à résoudre des tâches complexes avec plus de précision que la simple prédiction du mot suivant ». Le problème vient, en ce qui concerne les systèmes les plus élaborés, que certaines des étapes empruntés par la machine peuvent échapper à la surveillance humaine (AI could soon think in ways we don’t even understand — evading our efforts to keep it aligned — top AI scientists warn). Dans la mesure où une IA sophistiquée est alimentée par d’innombrables données, elle peut fort bien sauter l’étape chaîne de pensée, tout autant que des étapes intermédiaires. Il ne faut pas non plus négliger le fait que en fonction de leur « alimentation », elles peuvent également générer des informations inexistantes et donc fausses, il s’en suit l’erreur de fin de course, erreur que rien n’empêche d’être préjudiciable à l’opérateur. Il est donc évident que si l’on ne peut pas avoir connaissance de toutes les étapes, il va être indispensable d’inclure dans le système lui-même un moyen de surveillance que l’IA ne sera pas en mesure de détecter ! Il ne s’agit encore que de suppositions de la part des concepteurs et des utilisateurs mais il semble bien que la vision humaine de la machine soit devenue particulièrement sombre quand il fut un temps où la technique était l’avenir de l’homme !
La machine qui questionnait le vivant
mercredi, juillet 9th, 2025Parce que le centaure de la mythologie était un animal fabuleux mi homme/mi cheval, il n’est peut être pas étonnant de l’avoir choisi comme intitulé d’un système performant d’IA. Et ce d’autant plus que le plus sage d’entre eux (mais ils ne l’étaient pas tous !) Chiron, fut l’éducateur de nombreux et célèbres personnages parmi lesquels, Achille, Heracles, Asclepios. Était-ce parce qu’il était sage parmi les sages qu’il préféra la mort a l’éternité, l’histoire ne le dit pas. Toujours est-il que ce nouveau Centaure se démarque des autres systèmes d’IA puisqu’il est en mesure de traiter plusieurs tâches simultanément, ce qui jusqu’à présent restait une prérogative de l’espèce humaine (AI knows what you’ll do before you do). Plus encore il a été capable de prédire « les choix des individus dans des tâches pour lesquelles il n’avait pas été entrainé ». Ces résultats reposent sur l’utilisation d’un nombre exceptionnel de données qui lui ont été fournies et qu’il est en mesure de traiter. Si ces résultats peuvent dans le futur être source d’une aide dans le domaine de la psychologie humaine, ils posent aussi une question de taille : jusqu’à quel point le comportement humain est-il structuré ?
Tout et son contraire
vendredi, juin 27th, 2025Quel que soit le chemin que va prendre la société, il va falloir abandonner le fleuve de l’instantanéité pour regagner les berges des promenades où le temps prend le temps de mener à la réflexion. Il va falloir s’imprégner de l’idée que le biais cognitif est à formellement reconnaître pour le combattre, il va falloir de nouveau accepter de comparer, de discuter en évitant tout dogmatisme ; en somme en revenir au temps que les moins de vingt ne peuvent pas connaître. L’urgence est une réalité, comme en témoignent quatre articles parus entre le 21 et le 25 Juin : 1) Does using ChatGPT change your brain activity? Study sparks debate, 2) What we lose when we use AI, 3) New study claims AI ‘understands’ emotion better than us — especially in emotionally charged situations et pour terminer, 4) AI hallucinates more frequently as it gets more advanced — is there any way to stop it from happening, and should we even try? A noter que les deux derniers pourraient faire l’objet de films dystopiques dont le monde actuel raffole. En effet l’une insiste sur l’augmentation des « hallucinations » dont souffrent les systèmes les plus récents d’IA. Le problème étant que certaines de ces hallucinations sont vraies tandis que d’autres sont fausses et qu’il est impératif de démêler le vrai du faux ! L’autre intervient dans un autre domaine encore plus effrayant celui où l’IA devient sensible aux émotions dans certaines situations particulières ! L’univers d’Isaac Asimov était plus sain que celui de Philip K. Dick ! Quant aux deux premiers, il remettent au goût du jour l’opinion platonicienne selon laquelle il convient de se détourner des livres car leur lecture rend la mémoire inutile ! A l’appui, une expérimentation récente montrerait que l’utilisation de Chat GPT diminue la sollicitation cérébrale ! Qu’apprennent ces quatre articles, la circonspection ! Comment-est il possible raisonnablement de tirer profit d’informations contradictoires, si ce n’est en n’abandonnant pas la recherche d’autres études de façon à pouvoir comparer sans préconçus. Il n’est jamais indispensable de se faire une opinion dans la minute qui suit une lecture !
J’hallucine dit l’IA !
lundi, janvier 27th, 2025Si selon le dictionnaire de l’Académie Française, l’hallucination est « Une fausse perception qui se forme chez un sujet éveillé » comment l’IA peut-elle avoir des hallucinations ? En réalité, c’est plutôt l’utilisateur de l’IA qui hallucine quand il découvre, incrédule, les réponses inventées que lui donne sans vergogne, son système intelligent préféré (Can we curb AI’s hallucinations?). Quelles soient ou non qualifiées d’hallucinations ou d’erreurs leur pourcentage peut être particulièrement élevé selon les auteurs. Il est de fait que ces erreurs pourraient être assimilées à des hallucinations dans la mesure où le système les a non seulement inventées mais encore ne les reconnaît aucunement comme fausses voire même persiste dans ses erreurs. Le problème est donc de savoir si ce défaut peut être éliminer autrement que par des systèmes de vérification externes. Il n’est pas impossible que ces dérapages soient la contrepartie de ce dont se nourrit le système selon la paraphrase « Trop de données tue les données » assertion à laquelle il convient d’ajouter la personnalité du/ des donneurs d’informations. D’où la règle intangible, ne jamais faire une confiance aveugle à la machine, et savoir garder un œil averti sur ses résultats. Mais comme on n’arrête pas le progrès il convient d’ajouter à ces hallucinations, son nouveau pouvoir, celui d’autoréplication (AI can now replicate itself — a milestone that has experts terrified), car on entre alors dans une autre dimension ! L’homme serait alors confronté à un taux de réplication incontrôlable pouvant mener par le biais de mécanismes d’autosurveillance à des comportements malveillants envers l’utilisateur avec pour finalité l’autoconservation du système ! A bas le monde dystopique, bienvenue dans la réalité !
Et le Nobel est attribué à …
dimanche, octobre 13th, 2024Que les noms des différents récipiendaires des prix Nobel soient pour la plus part d’entre eux inconnus du public, n’est peut-être pas une raison suffisante pour ne pas discuter des deux dernières attributions. En effet, à y regarder de près l’IA semblerait bien être la gagnante, non pas encore toute catégorie, mais au moins dans deux disciplines, Physique et Chimie. Si les deux nominations concernent bel et bien des personnes physiques dont les noms ont été donnés, l’IA n’est pourtant pas absente et pour certains il devrait en être tenu compte. Quel est l’objet du débat ? La mise en concurrence de deux aspects de la recherche (AI wins two Nobels — sparking debate) : la théorie et la pratique dont il semble aujourd’hui que la séquence d’utilisation se soit inversée. L’hypothèse première, déterminant l’utilisation d’outils dédiés a été remplacée par l’utilisation première d’outils qui ne seront dédiés que secondairement en fonction des résultats qu’ils auront permis d’obtenir ! Ne serait-ce pas « mettre la charrue avant les bœufs ! » Il faut néanmoins reconnaître que cette nouvelle méthode de l’utilisation de l’IA n’est pas dénuée d’avantages et que même si le système enclanche de lui-même un auto processus réflexif et constructif, il repose bel et bien sur une démarche première dont l’humain n’est pas absent. Par ailleurs les recherches se révèlent être de plus en plus interdisciplinaires car il s’avère que la structure cause-conséquences n’est plus qu’exceptionnellement univoque. Enfin mais peut-être pas à la fin, l’IA peut donner à appréhender de façon plus large la réalité en permettant de comparer ce qu’elle est capable de construire et ce qui existe voire, pourrait exister. Ainsi l’intrusion de l’IA comme co-chercheuse n’exprime-t-elle que l’adéquation entre l’actualité sociétale et l’actualité scientifique.
IA vue par l’IA
vendredi, août 9th, 2024Si l’on scrute avec attention le rapport entre l’Homme et sa création, l’IA, le temps est venu de scruter l’IA et l’IA. Au commencement était l’homme qui alimentait l’IA, mais comme cette dernière peut également s’auto alimenter, l’homme en est venu à se demander ce qui se passait quand une IA parlait à une autre IA ? Consternation, puisque la réponse est : des absurdités ! AI fed AI-generated data spews nonsense. C’est ce que les scientifiques appellent l’effondrement des modèles. L’étude proposée par l’article porte essentiellement sur des modèles linguistiques qui nourrissent l’IA. Ce n’est pas tant la quantité totale d’informations fournie à la machine que la proportion de chaque donnée portée dans chaque apport. Ainsi une donnée peut-elle disparaitre parce qu’insuffisamment présente. Mais un mot par ce qu’il est courant peut à l’inverse être sur représenté. Ainsi par le jeu de surexpressions et sous expressions d’origine statistique, l’apport primitif devient alors tronqué ou gonflé lors de la deuxième étape, phénomène qui ne peut que s’amplifier au fur et à mesure. Mais ne s’agit-il pas en l’occurrence d’un processus normal d’accumulation d’erreurs successives ? Dans l’état des choses le traitement statistique du mot par la machine est incompatible avec la richesse de l’expression humaine qui sait donner par un seul mot le sens exact. Il est satisfaisant d’en prendre conscience pour apprendre mieux à la machine mais chaque enseignant sait combien il est difficile de se bien faire comprendre par ceux que l’on enseigne.
Qu’en penserait Isaac Asimov ?
jeudi, mai 30th, 2024Voici les lois de la robotique parues en 1942 « Première Loi : un robot ne peut nuire à un être humain ni laisser sans assistance un être humain en danger. Deuxième Loi : un robot doit obéir aux ordres qui lui sont donnés par les êtres humains, sauf quand ces ordres sont incompatibles avec la Première Loi. Troisième Loi : un robot doit protéger son existence tant que cette protection n’est pas incompatible avec la Première ou la Deuxième Loi. » Quatre vingt deux ans plus tard, deux articles invitent à se pencher sur la robotique du XXIème siècle. Car un des problèmes majeur est celui qui concerne la « confiance » que l’on peut ou non accorder, que l’on est en droit on non d’accorder à cette entité. La réponse pourrait sembler loin rien moins que simple à la lecture de ces deux articles parus presque simultanément : ‘Master of deception’: Current AI models already have the capacity to expertly manipulate and deceive humans, mais aussi, The AI revolution is coming to robots. Le premier présente des systèmes d’IA passés maitre dans la l’art de la tromperie, et ce même au niveau de jeux de société, ce qui laisse présager une incontestable capacité de nuisance. Le second au contraire insiste sur le versant positif de l’IA insufflée dans la robotique qui semble alors plus proche de celle conçue par Isaac Asimov. Néanmoins pour se faire une opinion, il ne devrait pourtant pas être impossible de se référer à la remarque selon laquelle « Ce que l’avenir nous réserve dépend de qui vous le demandez« . En effet l’IA (le robot) n’est pas moteur premier non mu tel que professé par Aristote mais but de la technique humaine telle que conçue par Heidegger.
«
L’IA et le scientifique
lundi, mars 11th, 2024Peut-on établir une échelle dans l’inadéquation entre une technique et son application ? C’est une possibilité qui pourrait parfaitement avoir commencé dés la maitrise du feu. En effet depuis cette « époque » l’homme n’a cessé d’inventer et cette capacité le met en compétition avec la nature. Doit-il s’en rendre maitre, doit-il composer avec elle pour y trouver sa place ? Aujourd’hui le trouble est à son comble car se heurtent de plein fouet, un suprême outil de maitrise et une aspiration à un monde meilleur au sein d’une nature apaisée. Mais l’IA, puisqu’il s’agit bien d’elle, cache en son sein une capacité de tromperie dont son concepteur n’a pas encore pris la pleine mesure. Appliquant ce vertueux principe selon lequel tout idée de racisme doit être exclue, l’IA est parfaitement capable de générer des aberrations historiques qui défient l’imagination (https://www.numerama.com/tech/1635258-gemini-genere-des-images-de-nazis-noirs-google-panique.html). Dans la mesure où l’instantanéité a remplacé la réflexion, cette information prendra envol et consistance auprès des moins avertis. Mais elle est aussi capable de se manifester dans d’autres domaines qui, s’ils sont plus confidentiels n’en sont pas pour autant dénués d’une réelle importance (Why scientists trust AI too much — and what to do about it) puisque là aussi elle tout autant capable d’inventer, par exemple, de fausses expériences. Sans esprit de réflexion, sans application du doute constructif, celui qui interroge, l’outil serait à bannir. Car de même que Platon imaginait le livre comme un outil portant atteinte à la mémoire et altérant les facultés de compréhension de l’homme, de même l’IA pourrait-elle créer un enfer pour l’humanité. Il convient donc que les fées qui se penchent sur son berceau lui accordent la capacité de s’autocorriger dans les plus brefs délais









