Dans la fin des années cinquante, une éducatrice du nom d’Evelyn Wood, gagna sa popularité en créant et commercialisant un système censé augmenter la vitesse de lecture donnant le terme de lecture rapide ou dynamique au procédé. Peu de critiques alors se firent jour et la méthode fut facilement acceptée bien qu’elle reposât sur une impossibilité, à savoir l’élargissement du champ visuel. Evelyn Wood suggérait en effet qu’il était possible, en s’exerçant, de déchiffrer des signes disposés sur une surface supérieure à celle de la fovéa. Or physiologiquement en dehors de cette zone, la vision devient très imprécise (https://www.persee.fr/doc/prati_0338-2389_1986_num_52_1_1414). Et donc comment est-il possible qu’il existe des individus qui lisent beaucoup plus rapidement que d’autres, de même comment est-il possible de comprendre les messages SMS quand ils ne sont composés que de consonnes juxtaposées ? Ce qui est en l’occurrence une des caractéristiques des langues sémitiques triconsonantiques ou trilitères ! Quoiqu’il en soit, il est de fait que « le traitement du langage en un coup d’œil ne devrait pas fonctionner« , mais puisqu’il fonctionne, il doit exister une explication et c’est ce que propose l’article Humans comprehend sentences in a flash en s’appuyant sur ce qui devrait être un mantra universel : connaître la syntaxe de sa langue ! Car quand on connaît, on reconnaît : c’est aussi simple que ça ! Rien de plus élémentaire mais aussi de plus porteur de sens que l’ensemble sujet, verbe, complément. Pour tous ceux qui se jouent de la structure de leur langue mais aussi de leurs écrits il est particulièrement important de leur rappeler que cette dernière est essentielle s’ils veulent être vraiment bien compris.
Archive for the ‘Non classé’ Category
Plaidoyer pour la syntaxe
dimanche, novembre 10th, 2024Mithridatiser !
mardi, novembre 5th, 2024Probablement parce que son père Mithridate V avait été assassiné et par ce que il avait tenu tête aux Romains, Mithridate VI usa de précautions pour éviter d’être empoisonné. A cet effet il eut recours à l’absorption réitérée de poison à doses filées (comme on le dirait aujourd’hui) et l’effet cherché fut obtenu puisqu’il ne réussit pas à se suicider et demanda à être aidé pour se faire. Aujourd’hui il s’agit bel et bien de se prémunir des effets particulièrement funestes que peuvent avoir sur la vie des individus en société, la nuée de fausses informations, dites encore fake news, qu’il est particulièrement difficile de débusquer pour les plus sophistiquées d’entre elles. C’est pourquoi un mode d’emploi à cet effet est le bien venu (Can we ‘inoculate’ against fake news?). On aurait envie de dire que persuader les individus de mettre en marche leurs capacités de réflexion et de les utiliser dans un temps long serait l’étape indispensable, nécessaire et suffisante. Pourtant, c’est elle qui pose déjà problème car la persuasion s’inscrit dans une démarche parallèle à celle qu’adopte la fausse information. Il convient donc d’être plus subtile, en préparant le terrain pour inoculer un vaccin qui tout en étant indolore sera efficace. Il est vrai que la méthode s’apparente à l’effet d’un message subliminal qui imprime déjà une information et qu’elle n’agit pas sur cette dérive sociétale qu’est le débordement incontrôlable d’informations. Comme le souligne l’article il n’existe pas une méthode mais des méthodes que l’on devrait pouvoir combiner. Pourtant toutes ont un socle commun, et c’est lui qui devrait être enseigné : savoir réfléchir ensemble en prenant son temps.
Arrêt sur image
samedi, novembre 2nd, 2024Une boîte noire est un système dont le fonctionnement interne est soit inaccessible, soit omis délibérément. Pour le behaviourisme le cerveau est une boîte noire et seuls les comportements sont accessibles et peuvent servir de base à une étude scientifique. Aujourd’hui sans être devenue d’une totale transparence, la boite noire livre peu à peu les secrets de sa construction ce qui plus tard aidera peut-être à expliquer son fonctionnement. C’est ce que propose l’article The ineffable quality of the human brain en abordant l’étude comparative de plusieurs cerveaux de mammifères (ou pas) en s’attachant particulièrement au versant cytologique de l’étude, ce qui aurait plu aux morphologistes classiques, mais pour faire preuve de modernité, en lui adjoignant des données génétiques. Depuis Golgi et Ramon y Cajal, les images des neurones n’ont pas réellement été modifiées : on peut simplement s’accorder sur le fait qu’ils sont loin d’être aussi simples que les premières imprégnations argentiques ou colorations spécifiques le laissaient supposer. Exception faite de l’axone qui même s’il se bifurque reste unique, les dendrites se révèlent beaucoup plus nombreux et la forêt des synapses est inextricable. En résumé, c’est la même chose mais en mieux ! Par contre la perte cellulaire annoncée très précocement chez le petit humain se révèle être une duperie, car le cerveau n’atteint sa maturité que vers le tiers de la vie de son possesseur, ce qui est rassurant ! Quant au quotient d’encéphalisation il est largement en faveur de l’humain. Et si le nombre des cellules est supérieur chez l’homme, les types cellulaires sont comparativement moins différents que ce à quoi aurait pu prétendre son orgueil. En fait comme l’écrivent les auteurs « ce ne sont pas les ingrédients qui sont différents, mais la recette« . Si les instruments sont globalement identiques, ils sont plus nombreux et l’orchestre est capable d’un polyphonie plus riche.
Le zéro n’est pas rien !
mercredi, octobre 30th, 2024Il est de notoriété publique que le « zéro a été inventé tardivement dans l’histoire ». Son usage moderne est à mettre sur le compte d’un mathématicien italien, Leonardo Fibonacci, qui introduisit en Europe le système de notation indo-arabe avec en particulier sa notation sous la forme d’une figure simple fermée, 0. Mais si la figure se révèle effectivement simple, le symbole qui s’y rattache est très loin de l’être, comme on peut en juger. Il est à la fois chiffre et nombre, il représente quelque chose qui n’existe pas mais qui devient existant puisque l’on constate son absence, il prend place sur l’axe des abscisses et ordonnées avant le 1 : quant aux opérations auxquelles il participe, elles ont nécessité de nouvelles règles de calcul ! Ainsi le zéro est-il affecté d’une complexité extrême qui ne peut qu’échapper à celui qui le manipule quotidiennement en raison d’une représentation mentale comme pour tous les autres chiffres. Alors dans la mesure où il est devenu possible de réaliser des images du fonctionnement cérébral, il était intéressant de tester la représentation des chiffres et des nombres en portant une attention toute particulière au zéro. N’est-il pas amusant d’avoir une image d’une « absence [qui] devient objet mathématique » ? En effet pourquoi le zéro n’occuperait-il pas une place particulière dans le cerveau (How we get our heads around zero) ? Les auteurs ont donc cherché s’il existait une base neuronale pour le zéro. Fondamentalement il n’existe pas de différences spécifiques concernant sa représentation. Si le zéro allume plus de neurones, le cerveau le traite néanmoins comme tout autre nombre : « En tant que tel, le zéro est traité comme n’importe quel autre nombre formel« . Et donc, à l’image de « l’homme [qui est] une femme comme les autres », le zéro est un nombre comme les autres ! Reste pourtant cette propriété humaine (jusqu’à aujourd’hui du moins) de savoir différencier l’absence du rien.
Venu d’ailleurs !
lundi, octobre 28th, 2024Il n’est pas inutile de le répéter, depuis Hésiode et sa Théogonie, parce que plus facile à déchiffrer que l’épopée de Gilgamesh en sumérien, l’apparition de l’homme sur terre constitue un problème majeur de la fondation de l’humanité. Si l’on excepte la création divine, ex nihilo, force est de se demander ce qui a bien pu présider à la survenue de la vie sur terre. Pour la finitude, les preuves existent, on peut simplement les trouver absurdes mais pour le point de départ pas la moindre trace du commencement d’une preuve ! Il est tentant de penser avec Aristote, « que rien ne nait de rien« , ce qui sous entend qu’il y toujours eu quelque chose, d’où l’hypothèse d’une succession de big bang et de big crush. Mais qu’en est-il de la vie, c’est à dire de son apparition ? Dans la mesure où même à l’œil nu, l’observation du ciel montre à l’évidence que la terre n’est pas la seule planète de l’univers, il a été tentant de postuler l’existence d’êtres extra terrestres qui auraient pu être à l’origine de la population terrienne, la science fiction regorge de ces élucubrations. Aujourd’hui les recherches évoquent une hypothèse moins farfelue, (Meteorite was ‘giant fertilizer bomb’ for life), mais qui s’inscrit néanmoins dans une démarche qui lui ressemble. Les météorites sont connues pour s’écraser sur terre et être cause de dégâts que l’on est en droit de qualifier d’extrêmes. Pourtant qui dit météorite sous entend phosphore et fer, excellents nutriments venant au secours d’organites unicellulaires procaryotes, et jouant le rôle d’un véritable engrais selon les auteurs de l’article. Il y a plus de trois milliards d’années la vie existait déjà, ce sont les stromatolithes. Mais la terre compte plus de quatre milliards d’années d’existence pendant lesquelles les impacts de météorites se sont succédé et si chaque collision était fatale à la vie antérieure, elle était aussi propice à un recommencement à l’image de la météorite géante dont parlent les auteurs.
Connaissance du passé/Destruction de l’avenir
dimanche, octobre 20th, 2024En fait la question n’est pas de savoir s’il faut choisir entre la connaissance de son passé et la destruction de son avenir parce que c’est la connaissance du passé de l’humanité qui est le signe de la destruction de son avenir. De quoi s’agit-il ? Le monde est maintenant largement averti que le dérèglement climatique dont l’homme est pour partie responsable, se traduit entre autre par un réchauffement global dont les conséquences sont multiples. Ce réchauffement qui affecte principalement les étendues océaniques se reflètent dans l’abondance et la violence des précipitations en général. Ces modifications affectent en particulier les étendues gelées jusqu’alors, glaciers, glace des montagnes, pergélisol (permafrost). Or il se trouve qu’un certain nombre de ces surfaces glacées pourrait l’être depuis des milliers d’années. Comme l’a révélé un cadavre célèbre, celui d’d’Ötzi, cette eau solidifiée avec laquelle des premiers hommes ont eu à vivre, peut en avoir gardé une certaine mémoire. C’est ainsi qu’en fondant elle instruit sur la saga humaine mais que se faisant elle témoigne de son impéritie et signe pour son avenir des jours moins heureux (The discoveries emerging from melting ice). En savoir plus sur le néolithique , c’est également en savoir plus sur les interactions homme/nature qui n’ont pas attendu l’anthropocène pour se manifester. Mais il existe des inconvénients, l’envers de la médaille. D’une part ces plaques glacées sont en voie de disparition et ce lien fragile avec le passé disparaitra à tout jamais, auront-elles livré tous leurs secrets avant leur effacement ? D’autre part, il se pourrait que se produise une libération de germes vieux de plus de cinquante mille et de ce fait parfaitement inconnus. L’homme d’aujourd’hui est-il prêt à apprendre les conditions de la vie au néolithique et à se défendre de ses vicissitudes ?
Et le Nobel est attribué à …
dimanche, octobre 13th, 2024Que les noms des différents récipiendaires des prix Nobel soient pour la plus part d’entre eux inconnus du public, n’est peut-être pas une raison suffisante pour ne pas discuter des deux dernières attributions. En effet, à y regarder de près l’IA semblerait bien être la gagnante, non pas encore toute catégorie, mais au moins dans deux disciplines, Physique et Chimie. Si les deux nominations concernent bel et bien des personnes physiques dont les noms ont été donnés, l’IA n’est pourtant pas absente et pour certains il devrait en être tenu compte. Quel est l’objet du débat ? La mise en concurrence de deux aspects de la recherche (AI wins two Nobels — sparking debate) : la théorie et la pratique dont il semble aujourd’hui que la séquence d’utilisation se soit inversée. L’hypothèse première, déterminant l’utilisation d’outils dédiés a été remplacée par l’utilisation première d’outils qui ne seront dédiés que secondairement en fonction des résultats qu’ils auront permis d’obtenir ! Ne serait-ce pas « mettre la charrue avant les bœufs ! » Il faut néanmoins reconnaître que cette nouvelle méthode de l’utilisation de l’IA n’est pas dénuée d’avantages et que même si le système enclanche de lui-même un auto processus réflexif et constructif, il repose bel et bien sur une démarche première dont l’humain n’est pas absent. Par ailleurs les recherches se révèlent être de plus en plus interdisciplinaires car il s’avère que la structure cause-conséquences n’est plus qu’exceptionnellement univoque. Enfin mais peut-être pas à la fin, l’IA peut donner à appréhender de façon plus large la réalité en permettant de comparer ce qu’elle est capable de construire et ce qui existe voire, pourrait exister. Ainsi l’intrusion de l’IA comme co-chercheuse n’exprime-t-elle que l’adéquation entre l’actualité sociétale et l’actualité scientifique.
N’est pas Mathusalem qui veut !
jeudi, octobre 10th, 2024Parler de l’espérance de vie au fil des siècles est sujet à de multiples interprétations tant sont nombreux les facteurs en cause. Si l’espérance de vie ne dépasse guère trente ans au moyen âge, il faut tenir compte de la mortalité périnatale, infantile, de l’absence e méddecine tant préventive que curative. Ces différents facteurs ayant progressivement disparu, on peut estimer être plus proche d’une donnée dépolluée quand on estime aujourd’hui que « entre 1900 à 2000, l’espérance de vie en France est passée de 48 à 79 ans, soit une hausse de 65 % en un siècle seulement« . De fait s’il existait une progression continue jusqu’à encore récemment, on s’aperçoit que se profile un réel ralentissement depuis le début du XXème siècle si l’on prend essentiellement en compte les pays « riches » (Life expectancy is increasing at a slower rate this century — and it may be because we’re reaching our human limit). Ainsi se pose la question angoissante de savoir si l’humanité ne se rapproche inexorablement du point limite possible de sa vie sur terre. Il y aurait-il malgré toutes les avancées médicales, sociétales, un buttoir inéluctable ( https://www.jim.fr/viewarticle/lesp%C3%A9rance-vie-elle-train-datteindre-plafond-verre-2024a1000ik2? ) La finitude humaine ne devrait-elle pas de nouveau être enseignée à l’homme pour qu’il ne se berçât point d’illusions ? Il est certain que vieillir plus longtemps n’entraine pas parallèlement un rajeunissement de ses cellules. Au contraire ces dernières accumulent tout a fait normalement les modifications physiologiques de la senescence. Tout se résume donc à l’horloge biologique dont on sait pas ailleurs qu’elle est spécifique de chaque individu : encore serait-il plus juste de parler des horloges biologiques car elles seraient plusieurs à régler avec précision la physiologie de l’organisme. C’est la raison pour laquelle la chronobiologie est capitale, son étude fut du reste couronnée par le prix Nobel de physiologie/médecine en1977.
Un vieux mystère mystérieux !
lundi, octobre 7th, 2024La première loupe date probablement du XIème siècle, et fut utilisée à l’époque comme aide à la lecture d’où sa dénomination de pierre de lecture. Mais l’amélioration de la lecture ne doit pas être le seul bienfait à mettre sur le compte de ce système optique car celui-ci devait ouvrir des champs insoupçonnés d’observation : l’infiniment grand et l’infiniment petit. Pour de multiples raisons, c’est le monde végétal qui fut le premier à bénéficier de cette nouvelle échelle d’étude. En 1665, Robert Hooke fut le premier à se servir d’un microscope sur une tranche de liège végétal ce qui l’amena à inventer le terme de cellule. Avec l’amélioration progressive des moyens d’observation, il apparut que cette petite formation était loin d’être vide : elle renfermait (et renferme toujours !) en effet de nombreux organites. Celui dont il est question a fait l’objet d’innombrables études tant morphologiques que physiologiques et se révèle porteur d’une spécificité, celle de renfermer un ADN d’origine exclusivement maternelle. Mais il restait une incertitude, celle concernant son origine ! N’a-t-on pas été jusqu’à qualifier les mitochondries d’aliens ! On faisait, jusqu’à hier l’hypothèse que « les mitochondries étaient originellement une bactérie appartenant au groupe des protéobactéries » organisme qui aurait pénétré la cellule par endosymbiose pour s’y installer. Aujourd’hui cette hypothèse pourrait être confirmer mettant fin à un mystère savamment entretenu (Is this where mitochondria came from?). Des chercheurs « ont réussi à implanter des bactéries dans une cellule plus grande, créant une relation similaire à celle qui a déclenché l’évolution de la vie complexe« . Même s’il est difficile en pratique de créer une symbiose permanente et transmissible les résultats donnent du poids à une hypothèse qui date de la fin du XIXème siècle. S’il n’est pas non plus interdit d’imaginer des applications à la réalisation de différents types d’endosymbiose chez le vivant, on est en droit d’insister sur l’immuabilité et l’efficacité de la méthode expérimentale vieille de plus de cent cinquante ans, telle que Claude Bernard l’avait décrite en son temps.
Une brève histoire de la cellule
vendredi, septembre 27th, 2024Le mot cellule apparut au XVIIème siècle, fruit de l’observation du liège végétal par Robert Hooke, qui décrivit de petites cellules, parce que lui ayant évoqué de petites chambres régulières. Il fallut de nombreuses études pour qu’au XIXème siècle Schwann établissent la communauté d’organisation dans le règne animal et le règne végétal, celle-ci reposant sur UNE structure : la cellule. Celle-ci devient dès lors le pilier de la biologie : elle est l’Unité de base de la vie qui constitue tout organisme, animal ou végétal. En 2023, une estimation propose le chiffre de trente six mille milliards de cellules dans le corps humain parmi lesquelles on distinguerait deux cents types différents. D’où la question en 2024, comment définit-on la cellule : What is a cell type, really? Et alors se révèle toute la complexité de la question parce qu’elle repose sur le terme même de définition. Qu’est-ce que définir ? Selon le dictionnaire de l’Académie Française : « Déterminer avec précision et clarté l’ensemble des caractères d’une chose « . Il semble difficile d’être à la fois précis et clair tant le nombre des caractères cellulaires s’accroissent parallèlement au développement des techniques utilisées pour les étudier. Le chercheur biologiste va de découvertes en découvertes au fur et à mesure où ses instruments d’étude se complexifient. Quelques exemples seront convaincants en allant chronologiquement du plus simple au plus compliqué : la forme, les marqueurs moléculaires, la fonction, le séquençage d’ARN à cellule unique et dernière étape mais peut-être pas ultime, les marqueurs moléculaires fonctions de la place d’une cellule dans les tissus, ce qui fait passer le nombre de types différents de deux cents à plus de cinq mille ! Dès lors quelle est LA question à laquelle il n’a pas encore été répondu : produire un nouvel atlas, promouvoir des thérapeutiques adaptées, reconnaître quelle est l’unité de base de la vie ?