Le mot cellule apparut au XVIIème siècle, fruit de l’observation du liège végétal par Robert Hooke, qui décrivit de petites cellules, parce que lui ayant évoqué de petites chambres régulières. Il fallut de nombreuses études pour qu’au XIXème siècle Schwann établissent la communauté d’organisation dans le règne animal et le règne végétal, celle-ci reposant sur UNE structure : la cellule. Celle-ci devient dès lors le pilier de la biologie : elle est l’Unité de base de la vie qui constitue tout organisme, animal ou végétal. En 2023, une estimation propose le chiffre de trente six mille milliards de cellules dans le corps humain parmi lesquelles on distinguerait deux cents types différents. D’où la question en 2024, comment définit-on la cellule : What is a cell type, really? Et alors se révèle toute la complexité de la question parce qu’elle repose sur le terme même de définition. Qu’est-ce que définir ? Selon le dictionnaire de l’Académie Française : “Déterminer avec précision et clarté l’ensemble des caractères d’une chose “. Il semble difficile d’être à la fois précis et clair tant le nombre des caractères cellulaires s’accroissent parallèlement au développement des techniques utilisées pour les étudier. Le chercheur biologiste va de découvertes en découvertes au fur et à mesure où ses instruments d’étude se complexifient. Quelques exemples seront convaincants en allant chronologiquement du plus simple au plus compliqué : la forme, les marqueurs moléculaires, la fonction, le séquençage d’ARN à cellule unique et dernière étape mais peut-être pas ultime, les marqueurs moléculaires fonctions de la place d’une cellule dans les tissus, ce qui fait passer le nombre de types différents de deux cents à plus de cinq mille ! Dès lors quelle est LA question à laquelle il n’a pas encore été répondu : produire un nouvel atlas, promouvoir des thérapeutiques adaptées, reconnaître quelle est l’unité de base de la vie ?
Une brève histoire de la cellule
septembre 27th, 2024Hérédité et environnement
septembre 23rd, 2024En 1866, Gregor Mendel permet au Pisum sativum d’acquérir une notoriété qui ne se démentira pas au fil des siècles. Choisissant fort à propos ce légumineuse, il va mettre en évidence, par une étude portant sur au moins quatre générations, la transmission de caractères simples : graines ridées et graines non ridées. A l’époque méiose et chromosomes sont inconnus, mais Mendel propose pour expliquer le phénomène de la transmission, l’existence d‘unités héritables. L’avenir devait montrer que la simplicité n’est pas de ce monde en particulier quand Conrad Hal Waddington s’aperçoit en 1942 qu’il existe une hérédité au delà des gènes ! Ainsi des caractères acquis peuvent-ils être transmis d’une génération à l’autre sans qu’il y ait mutation ce qui se traduit par la création d’un phénotype correspondant à cette acquisition. La méthylation de l’ADN est l’un des mécanismes le plus fréquent de l’épigénétique. On peut utiliser la mesure du taux de méthylation de l’ADN pour attribuer un âge, dit épigénétique plus précis que l’âge chronologique : cette horloge épigénétiqe pouvant ne pas correspondre à l’horloge chronologique d’un individu. Mais ce qui n’aurait pu être qu’une modification éphémère s’est révélée fonctionner sur plusieurs générations ce qui est d’une grande importance dans les processus évolutifs. Une récente étude Epigenetic Clocks Continue to Tick Over Multiple Lifetimes, confirme cette compétence au niveau d’une population cellulaire de première importance (mais en est-il qui ne le soient pas ?), les lymphocytes T. Cellules mémoires s’il en fut, ces cellules semblent se caractériser par une horloge épigénétique qui leur est spécifique. Considérablement plus âgés que l’horloge chronologique d’un individu jeune et souffrant d’un processus lymphoprolifératif, non atteints par une limite d’âge (chez la souris !), après plusieurs réinjections. On est encore loin d’expliquer ce comportement, mais la porte s’ouvre sur des applications insoupçonnées.
Pas de différence, vraiment ?
septembre 20th, 2024N’en déplaise à tous ceux qui s’attachent à démontrer qu’il n’existe pas de différence entre la gente féminine et la gente masculine, force est d’en accepter quelques unes. La raison voulant simplement de n’accorder à ces différences aucune connotation qualitative ou quantitative. La dernière en date concerne un organe noble, s’il en fut : le cerveau. On a déjà glosé à l’infini sur la différence de taille qui existerait entre un cerveau femelle et un cerveau mâle. Cette différence existe pourtant mais dans une circonstance bien particulière la gestation, qui comme chacun en est bien conscient relève exclusivement de la gente féminine chez l’humain. Documents à l’appui, A portrait of pregnancy brain changes, il appert qu’il existe bel et bien des différences pendant la gestation et là, il ne s’agit pas d’une étude chez les murins ! Schématiquement il existe une diminution de la substance grise et un pic transitoire de connectivité neuronale. On connaissait des actions hormonales physiologiques périphériques mais elles n’étaient pas encore démontrées au niveau du cerveau. Certaines de ces modifications par ailleurs persistent au delà de l’accouchement puisqu’il en est qui se poursuivent au delà de deux ans. Si ces modifications démontrent à l’évidence la normalité d’une différence de genre elles seront peut-être également importantes dans l’étude de syndromes encore inexpliqués en rapport avec la gestation, l’accouchement et le post partum. Les différences existent et ne peuvent être niées car elles sont naturelles et donc normales.
C’est comment décider ?
septembre 16th, 2024Pour procastiner, remettre à demain ce que l’on pourrait/devrait faire le jour même, comme pour précastiner, agir immédiatement, il doit exister un système apte à rendre la perception agissante : comprendre qu’il existe un futur réalisable, passer d’une sensation à son accomplissement. Encore une prérogative de la boîte noire qui vient d’être explorée (‘Brain-Wide’ Dynamics of Making Decisions Uncovered, https://www.labmanager.com/brain-wide-dynamics-of-making-decisions-uncovered-32812?). Le processus décisionnel est en effet loin d’être simple. Retirer rapidement sa main d’une source de chaleur ne rentre pas dans ca cadre, puisqu’il s’agit simplement d’un acte réflexe dont le trajet neuronal est connu depuis longtemps grâce aux sacrifices de nombreuses grenouilles dont le destin s’est brusquement interrompu. Dans l’étude sus citée, il s’agit d’actes décisionnels plus complexes s’appuyant sur la perception du changement de vitesse d’un motif visuel donnant lieu à une réponse spécifique. Il est heureux de constater une réelle différence avec la voie du reflexe médullaire puisque les auteurs ont en effet mis en évidence que de nombreux neurones dans des zones différentes étaient impliqués. Il existe néanmoins des différences selon que l’animal a ou n’a pas appris à répondre. Mais s’agit-il réellement d’une découverte, dans le sens où jamais on aurait pu imaginer le résultat obtenu ? Non seulement la réponse est NON mais encore elle reste particulièrement frustre par rapport à la question posée ! Peut mieux faire !
Pourquoi “liker” désinforme !
septembre 13th, 2024Liker :
anglicisme : Indiquer que l’on apprécie (un contenu) sur Internet en cliquant sur le bouton prévu à cet effet. Rien de plus simple que d’appuyer sur le pictogramme proposé à cet effet quand on veut faire savoir que la lecture ou le visionnage d’un document satisfait celui qui l’a lu ou lui a simplement jeter un regard rapide. Mais que devient ce gentil pouce levé (How ‘likes’ fuel a spiral of misinformation) ? La question est loin d’être anodine dans la mesure où il échappe totalement à celui qui l’a utilisé, sans y apporter une attention particulière. Une fois envoyé par la machine, il va vivre sa vie en contribuant à augmenter le poids d’une affirmation, d’une négation, d’un jugement, d’une idée, d’une supposition, d’un concept, la liste en est sans fin. Le problème vient de ce que ce pouce virtuel est destiné à appartenir au réel ; comme le dit l’article « si vous en faites une tendance, vous en faites une réalité ». Grâce au biais cognitif qui fait que chacun a toujours tendance à tenir pour vrai ce à quoi il croit, il se crée des chemins préférentiels empruntés sans discussion par des lecteurs grégaires. Ces voies d’une information désinformative, sont enfant d’algorithmes mangeurs d’ approbations ou désapprobations envoyées dans un monde où la virtualité a comme qualité première d’être devenue réalité ! Autre facette de la réalité augmentée ? La complexité est à son comble et comme l’a si bien écrit MR de Beaumarchais “D’abord un bruit léger, rasant le sol comme hirondelle avant l’orage ….. Le mal est fait, il germe, il rampe, il chemine, … vous voyez calomnie se dresser, siffler, s’enfler …”. Rien ne changera jamais, seules les voies empruntées accélèreront encore les phénomènes.
Soma vs germen
septembre 2nd, 2024Ainsi va la technologie que ses pas de géants l’amèneront à toquer sans arrêt à la porte de l’éthique sociétale. Il est de fait que l’on n’aura jamais connaissance des doutes qui assaillirent Louis Pasteur quand Joseph Meister lui fut amené après avoir été mordu quatorze fois par un chien enragé. En ce mois de Juillet 1885, si l’effet du vaccin se situe dans l’inconnu, la mort de l’enfant est programmée. C’est un pas de géant qui s’écrit dans le domaine thérapeutique, quand en 2020, Emmanuelle Charpentier et Jennifer A. Doudna découvrent le système CRISPR cas9, puisque c’est au niveau cellulaire que l’on intervient. Ainsi des cellules génétiquement modifiées grâce à ce système vont-elles permettre d’initier des guérisons parfaitement inenvisageables des décennies auparavant. Tout ira plutôt bien tant que les cellules modifiées seront des cellules somatiques. Mais la technique pouvant tout aussi bien être pratiquée sur des cellules germinales, le futur n’est plus le même dans la mesure où les modifications induites deviennent transmissibles. La pratique de cette technique devient dés lors questionnable (CRISPR could soon be used to edit fetal DNA — are we ready?) dans la mesure où elle doit pouvoir répondre à plusieurs interrogations. Quand chacun sait qu’il n’existe pas de but qui n’ait été détourné de sa finalité première, il est indispensable de pouvoir/savoir répondre à plusieurs interrogations dont la première, quel traitement vise-t-on réellement. Mais il faudra aussi ne pas oublier de statuer sur le statut du fœtus, ni d’établir les frontières de l’eugénisme. : vaste programme !
A la recherche de la nature perdue
août 26th, 2024Qu’est-ce qu’un mantra sinon une formule sacrée et quel est celui du XXIème siècle ? Rendre sa nature à la nature ! Mais même si chacun en est d’accord, rien ne sera moins simple. En référence à Aristote, il n’est pas inutile de rappeler que la vertu se situe dans l’équilibre entre le trop et le pas assez, ce qui n’est pas sans rappeler le savoir raison garder, du siècle des lumières. C’est la réflexion qui vient à l’esprit quand on examine avec soin cette recherche exacerbée d’un avant nécessairement meilleur qu’un aujourd’hui. Cette remarque vaut tout particulièrement pour cette quête tous azimuts d’une nature qui n’existerait plus, parce que consciencieusement détruite par l’homme. Mais alors quelle nature doit-on privilégier ? Celle contemporaine des mammouths laineux que l’on cherche à cloner, le temps du Raphus cucullatus (Dodo) avant sa disparition au XVIIème siècle, celui de celles des chauves-souris disparues avec le XXème siècle ? Mais pour clore les débats, ne serait-il pas plus judicieux de choisir le temps adamique, quand Adam et Eve n’avaient pas encore croqué la pomme, puisque tout y était parfait !!! C’est ce problème à la fois non posé et insoluble dont il est question dans l’article Fall of the wild, mais peut-être est-ce parce qu’il est insoluble que l’on ne peut pas le poser ! L’homme a donc créé le mythe selon lequel tout était mieux avant, cet âge d’or hésiodique, que Valerius Caton regrettait déjà au Ier siècle av. J.-C, puisque le rat géant de Ténérife n’habitait déjà plus cette terre depuis mille ans. L’histoire ne s’efface pas, elle s’imprime inexorablement pour modeler le présent et donc ressusciter une espèce est un acte isolé qui survient dans un temps qui n’est pas celui de l’espèce primitive, l’homme avec qui elle cohabitera ne pouvant être celui avec lequel elle cohabitait. Les temps respectifs ne se mélangent pas ! Il conviendrait donc de faire le choix de l’équilibre pour ralentir les dégradations de l’anthropocène sans chercher un passé certes perdu mais aussi parfaitement méconnu à jamais.
Ni une ni deux
août 23rd, 2024Mnémosyne, fille d’Ouranos et de Gaïa, aimée de Zeus, mère des neuf muses, déesse de la mémoire, n’aurait en fait rien à voir avec cette faculté qu’est la mémoire que se partage largement les acteurs du règne du vivant. S’il faut manger pour vivre et non vivre pour manger, pourquoi donc faut-il se souvenir ? On peut imaginer que se rappeler de bons souvenirs serait bon pour la santé, mais alors qu’en serait-il des mauvais ? En fait il semble que cette faculté de mémorisation soit indispensable à une adaptation à la vie en société. Il s’agirait d’une fonction d’apprentissage en vue d’une gestion adaptée aux péripéties de la vie. L’expérience a largement prouvé que certains faits ne sont mémorisés qu’a partir d’un certain âge, que d’autres disparaissent, mais que certaines circonstances peuvent en faire réapparaitre. Ainsi rien n’est-il simple dans cette faculté. Le mystère s’épaissit-il ou bien est-il en cours de résolution ? Selon ‘l’article The Brain Creates Three Copies for a Single Memory, New Study Reveals (https://www.labmanager.com/the-brain-creates-three-copies-for-a-single-memory-new-study-reveals-32695?), il existerait plusieurs copies d’un même souvenir encodé dans des neurones différents au cours du développement embryonnaire : des neurones précoces, des neurones tardifs avec pour les premiers la possibilité d’une réactivation ! Il ne s’agit donc pas d’un simple archivage dans une bibliothèque poussiéreuse mais d’un fond dynamique dans lequel les informations vont changer de place au fur et à mesure où le demandeur en aura besoin !
Ce peut être une suite….
août 12th, 2024Il s’agit aujourd’hui de regarder avec attention la provenance des aliments destinés à nourrir chatbots IA (dialogueurs ou agents conversationnels) ou des articles de seconde génération, véritables Moloch des temps modernes. Car il se trouve nécessairement des propriétaires au regard de ces informations. Des chercheurs ont publié les résultats de leurs recherches originales et les ont soumis à des revues qui ont accepté de les publier, la valeur qui leur est accordée étant fonction de la revue et des comités de lecture. Ces articles vont donc (comme il a été écrit dans l’article précédent) venir grossir le stock des informations indispensables au rôle du dit chatbot. La question se pose donc de savoir s’il est juste de vendre/acheter aux propriétaires leurs données qui deviendront des réponses pour autrui ou bien dans la mesure où elles ont été portées a la connaissance de tous, elles ne leur appartiendraient plus. Il ne s’agit ni plus ni moins que du problème du droit d’auteur, débat aussi vieux que le sont les auteurs et leurs œuvres ! La différence vient de l’intermédiaire : une machine (https://www.chemistryworld.com/news/should-scientists-be-paid-when-ai-chatbots-use-their-work/4019894.article?utm_source=cw_weekly&utm_medium=email&utm_campaign=cw_newsletters). Mais comme rien n’est simple, il n’est pas inutile de rappeler que l’auteur a (presque) obligatoirement consulté un chatbot pour initier sa bibliographie. Quant à la machine son premier repas lui est certes apporté par un humain mais elle est faite pour tirer ses repas ultérieurs de ce qu’elle vient d’absorber. Alors si tel est pris qui croyait prendre, comment peut-on réguler ces utilisations pour que les pratiques soient inéquitables ?