Il est de notoriété publique que le « zéro a été inventé tardivement dans l’histoire ». Son usage moderne est à mettre sur le compte d’un mathématicien italien, Leonardo Fibonacci, qui introduisit en Europe le système de notation indo-arabe avec en particulier sa notation sous la forme d’une figure simple fermée, 0. Mais si la figure se révèle effectivement simple, le symbole qui s’y rattache est très loin de l’être, comme on peut en juger. Il est à la fois chiffre et nombre, il représente quelque chose qui n’existe pas mais qui devient existant puisque l’on constate son absence, il prend place sur l’axe des abscisses et ordonnées avant le 1 : quant aux opérations auxquelles il participe, elles ont nécessité de nouvelles règles de calcul ! Ainsi le zéro est-il affecté d’une complexité extrême qui ne peut qu’échapper à celui qui le manipule quotidiennement en raison d’une représentation mentale comme pour tous les autres chiffres. Alors dans la mesure où il est devenu possible de réaliser des images du fonctionnement cérébral, il était intéressant de tester la représentation des chiffres et des nombres en portant une attention toute particulière au zéro. N’est-il pas amusant d’avoir une image d’une « absence [qui] devient objet mathématique » ? En effet pourquoi le zéro n’occuperait-il pas une place particulière dans le cerveau (How we get our heads around zero) ? Les auteurs ont donc cherché s’il existait une base neuronale pour le zéro. Fondamentalement il n’existe pas de différences spécifiques concernant sa représentation. Si le zéro allume plus de neurones, le cerveau le traite néanmoins comme tout autre nombre : « En tant que tel, le zéro est traité comme n’importe quel autre nombre formel« . Et donc, à l’image de « l’homme [qui est] une femme comme les autres », le zéro est un nombre comme les autres ! Reste pourtant cette propriété humaine (jusqu’à aujourd’hui du moins) de savoir différencier l’absence du rien.
Archive for octobre, 2024
Le zéro n’est pas rien !
mercredi, octobre 30th, 2024Venu d’ailleurs !
lundi, octobre 28th, 2024Il n’est pas inutile de le répéter, depuis Hésiode et sa Théogonie, parce que plus facile à déchiffrer que l’épopée de Gilgamesh en sumérien, l’apparition de l’homme sur terre constitue un problème majeur de la fondation de l’humanité. Si l’on excepte la création divine, ex nihilo, force est de se demander ce qui a bien pu présider à la survenue de la vie sur terre. Pour la finitude, les preuves existent, on peut simplement les trouver absurdes mais pour le point de départ pas la moindre trace du commencement d’une preuve ! Il est tentant de penser avec Aristote, « que rien ne nait de rien« , ce qui sous entend qu’il y toujours eu quelque chose, d’où l’hypothèse d’une succession de big bang et de big crush. Mais qu’en est-il de la vie, c’est à dire de son apparition ? Dans la mesure où même à l’œil nu, l’observation du ciel montre à l’évidence que la terre n’est pas la seule planète de l’univers, il a été tentant de postuler l’existence d’êtres extra terrestres qui auraient pu être à l’origine de la population terrienne, la science fiction regorge de ces élucubrations. Aujourd’hui les recherches évoquent une hypothèse moins farfelue, (Meteorite was ‘giant fertilizer bomb’ for life), mais qui s’inscrit néanmoins dans une démarche qui lui ressemble. Les météorites sont connues pour s’écraser sur terre et être cause de dégâts que l’on est en droit de qualifier d’extrêmes. Pourtant qui dit météorite sous entend phosphore et fer, excellents nutriments venant au secours d’organites unicellulaires procaryotes, et jouant le rôle d’un véritable engrais selon les auteurs de l’article. Il y a plus de trois milliards d’années la vie existait déjà, ce sont les stromatolithes. Mais la terre compte plus de quatre milliards d’années d’existence pendant lesquelles les impacts de météorites se sont succédé et si chaque collision était fatale à la vie antérieure, elle était aussi propice à un recommencement à l’image de la météorite géante dont parlent les auteurs.
Connaissance du passé/Destruction de l’avenir
dimanche, octobre 20th, 2024En fait la question n’est pas de savoir s’il faut choisir entre la connaissance de son passé et la destruction de son avenir parce que c’est la connaissance du passé de l’humanité qui est le signe de la destruction de son avenir. De quoi s’agit-il ? Le monde est maintenant largement averti que le dérèglement climatique dont l’homme est pour partie responsable, se traduit entre autre par un réchauffement global dont les conséquences sont multiples. Ce réchauffement qui affecte principalement les étendues océaniques se reflètent dans l’abondance et la violence des précipitations en général. Ces modifications affectent en particulier les étendues gelées jusqu’alors, glaciers, glace des montagnes, pergélisol (permafrost). Or il se trouve qu’un certain nombre de ces surfaces glacées pourrait l’être depuis des milliers d’années. Comme l’a révélé un cadavre célèbre, celui d’d’Ötzi, cette eau solidifiée avec laquelle des premiers hommes ont eu à vivre, peut en avoir gardé une certaine mémoire. C’est ainsi qu’en fondant elle instruit sur la saga humaine mais que se faisant elle témoigne de son impéritie et signe pour son avenir des jours moins heureux (The discoveries emerging from melting ice). En savoir plus sur le néolithique , c’est également en savoir plus sur les interactions homme/nature qui n’ont pas attendu l’anthropocène pour se manifester. Mais il existe des inconvénients, l’envers de la médaille. D’une part ces plaques glacées sont en voie de disparition et ce lien fragile avec le passé disparaitra à tout jamais, auront-elles livré tous leurs secrets avant leur effacement ? D’autre part, il se pourrait que se produise une libération de germes vieux de plus de cinquante mille et de ce fait parfaitement inconnus. L’homme d’aujourd’hui est-il prêt à apprendre les conditions de la vie au néolithique et à se défendre de ses vicissitudes ?
Et le Nobel est attribué à …
dimanche, octobre 13th, 2024Que les noms des différents récipiendaires des prix Nobel soient pour la plus part d’entre eux inconnus du public, n’est peut-être pas une raison suffisante pour ne pas discuter des deux dernières attributions. En effet, à y regarder de près l’IA semblerait bien être la gagnante, non pas encore toute catégorie, mais au moins dans deux disciplines, Physique et Chimie. Si les deux nominations concernent bel et bien des personnes physiques dont les noms ont été donnés, l’IA n’est pourtant pas absente et pour certains il devrait en être tenu compte. Quel est l’objet du débat ? La mise en concurrence de deux aspects de la recherche (AI wins two Nobels — sparking debate) : la théorie et la pratique dont il semble aujourd’hui que la séquence d’utilisation se soit inversée. L’hypothèse première, déterminant l’utilisation d’outils dédiés a été remplacée par l’utilisation première d’outils qui ne seront dédiés que secondairement en fonction des résultats qu’ils auront permis d’obtenir ! Ne serait-ce pas « mettre la charrue avant les bœufs ! » Il faut néanmoins reconnaître que cette nouvelle méthode de l’utilisation de l’IA n’est pas dénuée d’avantages et que même si le système enclanche de lui-même un auto processus réflexif et constructif, il repose bel et bien sur une démarche première dont l’humain n’est pas absent. Par ailleurs les recherches se révèlent être de plus en plus interdisciplinaires car il s’avère que la structure cause-conséquences n’est plus qu’exceptionnellement univoque. Enfin mais peut-être pas à la fin, l’IA peut donner à appréhender de façon plus large la réalité en permettant de comparer ce qu’elle est capable de construire et ce qui existe voire, pourrait exister. Ainsi l’intrusion de l’IA comme co-chercheuse n’exprime-t-elle que l’adéquation entre l’actualité sociétale et l’actualité scientifique.
N’est pas Mathusalem qui veut !
jeudi, octobre 10th, 2024Parler de l’espérance de vie au fil des siècles est sujet à de multiples interprétations tant sont nombreux les facteurs en cause. Si l’espérance de vie ne dépasse guère trente ans au moyen âge, il faut tenir compte de la mortalité périnatale, infantile, de l’absence e méddecine tant préventive que curative. Ces différents facteurs ayant progressivement disparu, on peut estimer être plus proche d’une donnée dépolluée quand on estime aujourd’hui que « entre 1900 à 2000, l’espérance de vie en France est passée de 48 à 79 ans, soit une hausse de 65 % en un siècle seulement« . De fait s’il existait une progression continue jusqu’à encore récemment, on s’aperçoit que se profile un réel ralentissement depuis le début du XXème siècle si l’on prend essentiellement en compte les pays « riches » (Life expectancy is increasing at a slower rate this century — and it may be because we’re reaching our human limit). Ainsi se pose la question angoissante de savoir si l’humanité ne se rapproche inexorablement du point limite possible de sa vie sur terre. Il y aurait-il malgré toutes les avancées médicales, sociétales, un buttoir inéluctable ( https://www.jim.fr/viewarticle/lesp%C3%A9rance-vie-elle-train-datteindre-plafond-verre-2024a1000ik2? ) La finitude humaine ne devrait-elle pas de nouveau être enseignée à l’homme pour qu’il ne se berçât point d’illusions ? Il est certain que vieillir plus longtemps n’entraine pas parallèlement un rajeunissement de ses cellules. Au contraire ces dernières accumulent tout a fait normalement les modifications physiologiques de la senescence. Tout se résume donc à l’horloge biologique dont on sait pas ailleurs qu’elle est spécifique de chaque individu : encore serait-il plus juste de parler des horloges biologiques car elles seraient plusieurs à régler avec précision la physiologie de l’organisme. C’est la raison pour laquelle la chronobiologie est capitale, son étude fut du reste couronnée par le prix Nobel de physiologie/médecine en1977.
Un vieux mystère mystérieux !
lundi, octobre 7th, 2024La première loupe date probablement du XIème siècle, et fut utilisée à l’époque comme aide à la lecture d’où sa dénomination de pierre de lecture. Mais l’amélioration de la lecture ne doit pas être le seul bienfait à mettre sur le compte de ce système optique car celui-ci devait ouvrir des champs insoupçonnés d’observation : l’infiniment grand et l’infiniment petit. Pour de multiples raisons, c’est le monde végétal qui fut le premier à bénéficier de cette nouvelle échelle d’étude. En 1665, Robert Hooke fut le premier à se servir d’un microscope sur une tranche de liège végétal ce qui l’amena à inventer le terme de cellule. Avec l’amélioration progressive des moyens d’observation, il apparut que cette petite formation était loin d’être vide : elle renfermait (et renferme toujours !) en effet de nombreux organites. Celui dont il est question a fait l’objet d’innombrables études tant morphologiques que physiologiques et se révèle porteur d’une spécificité, celle de renfermer un ADN d’origine exclusivement maternelle. Mais il restait une incertitude, celle concernant son origine ! N’a-t-on pas été jusqu’à qualifier les mitochondries d’aliens ! On faisait, jusqu’à hier l’hypothèse que « les mitochondries étaient originellement une bactérie appartenant au groupe des protéobactéries » organisme qui aurait pénétré la cellule par endosymbiose pour s’y installer. Aujourd’hui cette hypothèse pourrait être confirmer mettant fin à un mystère savamment entretenu (Is this where mitochondria came from?). Des chercheurs « ont réussi à implanter des bactéries dans une cellule plus grande, créant une relation similaire à celle qui a déclenché l’évolution de la vie complexe« . Même s’il est difficile en pratique de créer une symbiose permanente et transmissible les résultats donnent du poids à une hypothèse qui date de la fin du XIXème siècle. S’il n’est pas non plus interdit d’imaginer des applications à la réalisation de différents types d’endosymbiose chez le vivant, on est en droit d’insister sur l’immuabilité et l’efficacité de la méthode expérimentale vieille de plus de cent cinquante ans, telle que Claude Bernard l’avait décrite en son temps.