Archives de Catégorie: Biologie

Fourmis arc-en-ciel

En Inde, à l’Université de Mysore, le scientifique un brin artiste Mohamed Babu ne manque pas d’inspiration… En guise de marqueur chimique, c’est un liquide sucré empli de colorants qu’il a fait ingérer à ses protégées, mettant en évidence l’abdomen des fourmis :

Du sexe au chocolat, un baiser sucré

Du sexe au chocolat, ou vice-versa, il n’y aurait qu’un pas ! Pour le Docteur David Lewis, le chocolat est un succédané d’amour…  A en croire une étude parue en 2007, le chocolat procure chez la femme une sensation de bien-être en tous points semblable à un baiser. D’autant que cet aliment-miracle est réputé, à tort ou à raison, provoquer l’orgasme.

On a vite fait de craquer pour ce succulent fondant choco… et c’est tant mieux !

Mes lecteurs assidus savent combien j’admire les scientifiques un brin déjantés. Plus exactement, il y a Hervé This, le gastronome moléculaire (sans culotte courte) qui nous explique, en outre, la cuisson et la couleur des aliments, ainsi que les scientifiques spécialisés dans le sexe, alias chercheurs en psychologie comportementale (ceux-là même qui nous en apprennent davantage sur le zizi que nous n’en savons nous même).

Vous saurez tout sur le zizi…

Justement, l’air de Pierre Péret est encore d’actualité… Après l’aversion du vagin rougeâtre, les conseils en matière de pratique sexuelles, ou encore l’appétence des hommes et des femmes pour les congénères vêtus de rouge, l’étude émanant de l’Université de Sussex (sans jeu de mots !) fournit une confirmation des voies neurologiques impliquées dans le plaisir, à savoir qu’on peut plus ou moins simuler n’importe quelle sensation par une stimulation adéquate.

En matière de psychologie, et notamment de sexologie, des progrès faramineux ont été faits ces dernières années grâce à l’avènement de l’IRM. En plus d’avoir révolutionné l’imagerie médicale et la chimie, la résonance magnétique nucléaire a enrichi considérablement les neurosciences : on en sait désormais bien plus sur les fondements neurologiques de la pensée et des émotions, tel le plaisir orgasmique.

Vue en IRM cérébrale, la sensation procurée par le chocolat présente de nombreuses similitudes avec l’orgasme. D’ici à dire que le chocolat provoque la jouissance… D’aucuns ne s’accorderont en revanche pour dire qu’en gâteau fondant ou en carrés, il procure un bien-être passager, censé, chez la femme, être comparable à un baiser passionné.

Comment savoir si cette femme simule ou non ? Par IRM !

Dans cette étude éminemment sérieuse, il est question de chocolat noir. Comme toujours en « chocolatologie » d’ailleurs, tant le chocolat est un objet d’étude prisé. Coupe-faim, anti-vieillissement, prévention du cancer et des maladies cardiovasculaires, antidépresseur… : on lui connaît désormais mille vertus, ou presque ! D’autant, disons-le nous, que cinq ou six carrés de chocolat par jour ne font pas grossir : bien au contraire le chocolat apporte une juste dose de graisses saines et essentielles au renouvellement cellulaire ; le tout est de s’imposer une limite !

C’est bon pour le moral !

Ce n’est pas la Compagnie Créole qui dirait l’inverse… Le chocolat, c’est bon, et même très bon, pour le moral ! Reste que l’étude ne précise pas si l’effet du chocolat vis-à-vis du plaisir est le même chez l’homme. On ne peut rien conclure trop hâtivement, étant donné que des différences dans les processus orgasmiques sont connus depuis peu entre l’homme et la femme, donc pourquoi pas dans le ressentir du plaisir en général…

Mais surtout, qu’est-ce qu’une femme embrassant langoureusement un homme… à la salive chocolatée ? Ne rigolez pas : il y a quelques années une jeune fille est morte en embrassant son petit ami qui avait mangé un sandwich au beurre de cacahuète. Le rapport ? Elle était allergique à l’arachide, et, comme chacun sait, les substances allergisantes agissent à l’état de traces (d’où l’utilité de le préciser sur les étiquettes). Or d’autres composés peuvent agir à l’état de trace ; c’est justement le cas de beaucoup de substances sécrétées par les plantes…

Ainsi donc, le chocolat fait du bien, apparemment autant qu’un baiser fougueux ! Les différents composés qu’il contient agissent en synergie ; en particulier la phényléthylamine est incriminée : c’est une hormone (couramment appelée « hormone de l’amour ») contribuant à l’orgasme, or le chocolat en contient. La phényléthylamine augmente le taux corporel d’endorphines, composés opioïdes endogènes. Cependant, sa teneur dans quelques carrés est actuellement discutée, ou plutôt la relation dose-effet : s’agit-il de quantités pondérables pour déclencher une réponse physiologique, si vite qui plus est ? Probablement pas, du moins pas une sensation aussi intense que l’orgasme.

Structure d'une phényléthylamine

La phényléthylamine est un neurotransmetteur impliqué dans l’amour et le sexe. Elle dérivé de l’acide aminé phénylalanine. La mescaline, une drogue hallucinogène, en contient, d’où l’analogie addiction / amour.

Pourtant, le pâtissier Pierre Hermé raconte une anecdote (voir l’orgasme en 10 récits) savoureuse : une femme lui aurait confié ressentir l’orgasme en goûtant un de ses délicieux gâteaux. Or, il ne s’agit pas d’un cas isolé, loin de là ; les témoignages pullulent sur Internet, d’autant que les femmes auraient globalement des goûts plus raffinés (affaire de culture sans doute, car les récepteurs aux goûts sont aussi abondants chez les deux sexes, voir Une histoire de goûts).

Le chocolat : nouveau canard vibrant ?

Le chocolat, masturbation linguale ? Provoquer l’orgasme semble excessif, d’autant qu’aucune étude ne le prouve tangiblement ! Procurer un plaisir identique au baiser, en revanche… L’on sait fort bien que les chimiorécepteurs linguaux sont on ne peut plus actifs lors d’un méli-mélo de langues (ce qu’on appelle couramment « rouler une pelle », ou mieux un french kiss, à ne pas confondre avec le smack, simple bisou « superficiel » ne mettant pas en branle des récepteurs autres que ceux des lèvres).

Mieux encore, le chocolat mettrait en route des circuits neuronaux semblables à ceux impliqués dans la dépendance amoureuse… Or ce délice de cacao pourrait bien être ce qu’on appelle un placebo : et si, plus on se persuaderait qu’il nous fait du bien, plus il nous en ferait effectivement ? Ne serait-ce qu’un baiser agréable, se laisser emporter par la douceur du cacao venu du bout du monde rien que pour nous…

Rendez-vous galant parfum cacao

Le chocolat fait du bien, autant qu’un baiser, semble-t-il ! Si l’or noir n’est probablement pas assez puissant pour mimer l’orgasme (sauf éventuellement chez les personnes hyperesthésiques, c’est-à-dire souffrant de perception accrue des stimuli sensoriels), il s’utiliserait bel et bien, inconsciemment, en guise de baiser, sans que le mécanisme alternatif à l’amour ne soit véritablement élucidé. Après plusieurs siècles, le chocolat n’a décidément pas encore révélé tous ses mystères.

A voir ou à revoir, Comment rouler une pelle : assez hilarant !

NB (comme s’il fallait le préciser) : ne s’y fier guère outre-mesure ; en la matière il n’y a que l’expérience qui vaille ! Et vaillant chocolat ne remplacera jamais le regard charmeur d’autrui…

D’ailleurs, la parution originale fit l’objet de critiques acerbes, telle « on se souviendra toujours de son premier baiser, mais pas de son premier carré » !

Source : http://news.bbc.co.uk/2/hi/health/6558775.stm

Dix espèces surprenantes découvertes en 2011

Chaque année, des centaines d’espèces vivantes sont encore découvertes (environ 7000 par an). La biologie en dénombre actuellement 8,7 millions, mais il en resterait des centaines de millions attendant un petit nom…

Tous les jours, 20 nouvelles espèces sont recensées !

Ce 27 mai 2012, l’International Institute for Species Exploration décerne le palmarès des espèces les plus surprenantes découvertes en 2011 :

Le singe sans nez

Découvert dans les hautes montagnes birmanes,le rhinopithèque de Stryker est un singe totalement dépourvu de nez !

Rhinopithecus stykeri (© Thomas Geissmann, Fauna & Flora International)

Le coquelicot jaune

Découvert au Népal en 2008 par une expédition de l’Université d’Aberdeen (Ecosse), il fallut trois ans pour s’assurer de sa véracité, étant donné le nombre d’espèces dans le genre Meconopsis, de la famille des papavéracées dont font partie les coquelicots.

Meconopsis autumnalis

Un air de film d’horreur…

Le ver nématode  a été déniché au fond d’une mine d’or, à 1,3 km de profondeur, en Afrique du Sud. Il s’agit de l’organisme multicellulaire vivant le plus profondément sous terre. Pourtant la pression régnant dans sol est considérable et la température (37 °C) est particulièrement élevée pour ce type d’animal. Rassurons-nous : les nématodes sont des parasites redoutables, mais étant donné son habitat, celui-ci ne fera de mal à personne !

Halicephalobus mephisto vit dans des conditions très inhospitalières pour un animal.

Belle de nuit

Il existe près de 25 000 espèces d’orchidées. Parmi celles-ci, Bulbophyllum nocturnum, découverte en Nouvelle Guinée, est la seule à fleurir de nuit.

Les fleurs de Bulbophyllum nocturnum s’ouvrent vers 22 heures et se ferment au petit matin.

Méduse bleue

Jolie mais empoisonnée ! La méduse bleue découverte en 2001 dut attendre dix ans pour être officiellement décrite. Tamoya ohboya tient son nom d’une compétition en ligne : « ohboya », proposé par un professeur de lycée, a été retenu en raison de la réaction qu’elle peut susciter : « Oh boy ! »

Elles nagent assez particulièrement pour des méduses ; les voir en vidéo : http://www.flickr.com/photos/tesserazoa/3511924667/

Tamoya ohboya (© Ned DeLoach)

Une guêpe peu sympathique

Si vous étiez une fourmi, vous l’haïrez ! Fort heureusement nous n’en sommes pas… La minuscule guêpe Kollasmosoma sentum parasite la fourmi Cataglyphis ibericus dépose ses

Kollasmosoma sentum fait partie des braconides.

Champignon éponge

Le champignon Spongiforma squarepantsii est un champignon spongiforme, à l’instar des morilles. Nommé d’après Bob L’éponge (SquarePants en version complète !), il n’en demeure pas moins tout-à-fait différents des morilles, qui ne sont pas aussi spongiformes que lui : ce champignon-là peut en effet être pressé et reprendre sa forme originelle. Il est surtout l’un des (relativement) rares champignons à faire partie de la famille des Boletaceae, regroupant de très beaux champignons tropicaux basidiomycètes.

Il habite l’île malaisienne de Bornéo.

Spongiforma squarepantsii

Mille-pattes géant

Il n’a pas mille pattes, mais presque ! Crurifarcimen vagans, de la famille des Pachybolidae, est originaire de Tanzanie, plus précisément des monts Usambara. Si le mille-pattes ne rivalise pas avec son cousin africain Archispirostreptus gigas (38 cm !), il n’en demeure pas moins un mille-pattes géant de 16 cm…

Crurifarcimen vagans

Cactus ambulant

Vous ne le croisez pas de sitôt, ni sous la douche si sous votre oreiller : Diania cactiformis est un animal ressemblant à un cactus… disparu il y a des centaines de millions d’années. Il faisait, mais fait encore – en quelque sorte – partie de la famille des Lobopodia, disparue il y a quelque 450 millions d’années. Le fossile retrouvé en Chine date du cambrien (520 millions d’années).

Diania cactiformis, tel qu’il est fossilisé, et tel qu’on l’imagine.

Sa découverte accrédite l’hypothèse selon laquelle les arthropodes (insectes, araignées, crustacés, scorpions…) descendent de membres du groupe Lobopodia. En effet, il ne reste aujourd’hui que les onychophores avec des lobopodes (ébauches de pattes).

Euperipatoides kanangrensis est un onychophore actuel.

Les onychophores seraient parmi les premiers animaux à être pourvus de pattes. Ce genre de bestioles sont probablement nos lointains ancêtres…

Les péripatidés sont l’une des deux familles de l’embranchement des onychophores.

Une tarentule (preque) bleue

Nommé en l’honneur du zoologiste Ivan Sazima, l’un des premiers à avoir étudié ces spécimens, Pterinopelma sazimai habite la forêt amazonienne, au Brésil en particulier. A peine découverte qu’elle serait menacée d’extinction…

Pterinopelma sazimai fait partie des Theraphosidae.

——————————————

Top 10 des espèces découvertes en 2011.

Les années précédentes furent découverts l’escargot fluo, le varan bleu, ou encore le crabe yéti. Chaque année a son inventaire prodigieux ! L’occasion de souligner l’importance de la biodiversité, beaucoup d’espèces étant endémiques (propres à une région restreinte)…

Varanus macraei, découvert en 2010.

Kiwa hirsuta a été découvert en 2005 dans les profondeurs du Pacifique. Il est pour l’heure le seul représentant des Kiwaidae.

Paryphantopsis Misimensis a été découvert en 2006 aux Louisiades, archipel au sud-est de la Nouvelle Guinée.

Une grosse rainette arboricole

Cette grosse rainette arboricole de la famille des hylidés a été découverte dans les forêts en basse altitude de la péninsule de Huon, en Nouvelle Guinée.

Litoria dux

Couscous aux yeux bleus

D’après la WWF, la Nouvelle Guinée abrite la plus grande biodiversité de marsupiaux arboricoles au monde. Parmi les 38 nouvelles espèces de marsupiaux découvertes récemment, voici le couscous aux yeux bleus, découvert en 2004 :

Spilocuscus wilsoni fait partie des phalangeriformes.

Un poisson arc-en-ciel

Chilatherina Alleni

Un dauphin à aileron retroussé

Les scientifiques, lorsqu’ils l’on découvert, pensaient que le dauphin à aileron retroussé faisait partie de l’espèce des dauphins d’Irrawaddy. Cependant, en 2005, ils se sont rendu compte qu’il s’agissait  de deux espèces différentes. C’est la première découverte d’une nouvelle espèce de dauphin en trente ans.

Orcaella Heinsohni

Un requin d’eau douce

Glyphis garricki a été découvert en 2008 en Papouasie-Nouvelle Guinée. C’est la sixième espèce du genre Glyphis. Le plus gros spécimen de Glyphis Garricki découvert par les scientifiques mesurait 2s5 mètres de long, mais il n’a été aperçu qu’à seize reprises depuis sa découverte, ce qui lui a valu une place sur la liste rouge de l’IUCN.

Glyphis garricki

Delias durai

Melipotes carolae

Chrysiptera cymatilis

Si vous vous demandez comment de telles créatures peuvent passer inaperçues, sachez que sept milliards d’êtres humains n’ont pas encore eu raison de milliards d’espèces ! Si, grâce aux satellites, la Terre est entièrement connue, elle reste en revanche largement inexplorée, en particulier la Nouvelle Guinée et l’Antarctique. Le sixième continent, cependant, n’est exploré que par des expéditions scientifiques lourdement équipées, comme on l’imagine aisément. En 2010, la NASA, dans le cadre de son programme en exobiologie (recherche de la vie dans des milieux hostiles afin d’étudier son apparition sur d’autres planètes) a mis la main sur une crevette vivant à 200 mètres sous la glace antarctique !

En février 2012, une crevette géante fut également découverte dans la fosse des Kermadec, au nord de la nouvelle Zélande :

Nouvelle crevette, non encore baptisée.

La voici sous son plus beau jour !

En savoir plus sur les crevettes : http://fr.wikipedia.org/wiki/Crevette

Crevettes de la famille des Palaemonidae

Fascinantes crevettes, non ? Celles-ci font partie des Palaemonidae.

C’est le moment idéal pour faire l’amour (paraît-il)…

L’Homme a la curieuse particularité d’être l’un des rares animaux à être sexuellement opérationnel toute l’année : comprendre par là qu’été comme hiver, qu’il pleuve, neige, fasse soleil, grêle ou vente, le désir ne s’en ressent pas moins (sans doute les nids douillets que sont les maisons y sont-elles pour quelque chose !). Il n’empêche que les études – mais on s’en doute un peu – montrent que le début du printemps (avril-mai) est favorable au désir féminin. Comme d’habitude, ce genre d’études est moins conduite auprès des hommes, dont on imagine (à tort ?) qu’un texto du style « passe chez moi, je t’attends » suffit… Il faut dire les femmes sont sujettes au phénomène de chaleurs, nom assez évocateur lorsque les insectes butinent à nouveau !

Quand les beaux jours reviennent…

En 1989, Philippe Besnard s’est intéressé aux « effets de la ronde annuelle des saisons sur la vie des Français, sur leurs comportements, leurs habitudes, leurs humeurs et leurs désirs », sujet selon lui trop peu étudié et mal connu des sociologues. Dans un ouvrage dédié à l’étude des Mœurs et humeurs des Français au fil des saisonsil passait alors en revue un certain nombre de phénomènes humains et sociaux portant en eux l’empreinte du rythme des saisons et cherchait à en proposer quelques pistes explicatives. Parmi les différents thèmes développés, l’auteur posait son regard sur « la [fameuse !] saison des amours », tentant d’expliquer la répartition saisonnière des naissances en France.

Sur Enfants.com, on peut lire : « Si les pics de naissances ont toujours existé, ils ont changé et se sont déplacés au fil des siècles, influencés plus par des facteurs sociologiques et historiques que par des paramètres climatiques. C’est que nous révèle une étude* de l’INED, l’Institut national des études démographiques. »

Longtemps, cela fut un fait : les naissances étaient plus fréquentes en hiver. Un savant calcul – devinez lequel – laisse à penser que la belle saison est plus propices aux amours. Mais « belle saison » signifie printemps, pas été : en été, il fait trop chaud (il faut s’économiser)… Et en hiver, trop froid ; il faut garder ses réserves pour lutter contre le frimas hivernal !

Désormais, la contraception biaise ce genre d’études basées sur la date de conception. D’autant que le climat n’est pas le seul facteur entrant en ligne de compte : dans un pays de tradition chrétienne comme la France, la religion avait son mot à dire, les rapports sexuels étant proscrits pendant le Carême et l’Avent (j’ai failli écrire entre : ça aurait fait un peu long…).

Or cette saisonnalité s’amenuise : aux oubliettes les préceptes religieux, les mœurs actuelles rejetant tous les carcans… D’autre part, la plupart des Français prennent leurs vacances en juillet et août, et avec l’avènement des congés payés il y eut un pic de naissances au printemps dû aux retrouvailles estivales. D’autres facteurs sociologiques, comme le cumul des congés maternités et des vacances d’été interviennent ; il n’en empêche que les saisons jouent un rôle naturel dans le désir sexuel…

En phase avec les saisons et les heures 

On a tendance à se sentir aussi disponible (pour n’importe quoi) le matin que le soir. Encore que tout le monde a déjà expérimenté le « coup de barre », et qu’une sieste estivale après le déjeuner ne se refuse pas (voir les villages de Provence, volets fermés, en été…)

Au cours de la journée, les paramètres physico-chimiques de notre corps fluctuent énormément : c’est ce qu’on appelle le rythme circadien. Il se retrouve chez tous les animaux, chez les plantes (redressement des feuilles et ouverture/fermeture des pétales selon l’heure), et même chez les champignons et certaines bactéries. Dans la mesure où l’alternance jour-nuit est commune à toutes les peuplades (sauf polaires), toutes les cultures ont une horloge biologique à peu près semblable :

Rythme circadien de l’Homme : cette horloge biologique est calée sur l’alternance jour/nuit.

Le système parasympathique, ensemble de rameaux nerveux autonomes logés dans la moelle épinière, est responsable de l’éjaculation. Par conséquent, il est également à l’origine de la flaccidité du pénis après l’orgasme, et chez la femme régule l’érection clitoridienne et la sécheresse vaginale (une suractivité parasympathique peut être la cause d’un moindre désir sexuel, voire mener à des « pannes », voir Le sexe est-il une maladie ?). Or le système parasympathique est davantage actif la nuit, qui n’est donc pas le meilleur moment pour des relations sexuelles d’envergure – si on ose dire – tout au moins prolongées. Bien entendu, il n’y a pas de contre-indication à faire l’amour la nuit (en pleine nuit entendons) ; chacun est libre de faire ce que bon lui semble, d’autant que l’activité parasympathique n’est pas nécessairement prépondérante dans le plaisir ressenti. Si le sport nocturne en chambre devenait une habitude, il ne ferait qu’amoindrir (plus ou moins) la qualité des rapports sexuels (sensation/durée). Cela dit, les choses sont bien faites : tout le monde, ou presque, dort la nuit !

Quant à ces fêtards qui copuleraient au beau milieu de la nuit, le système parasympathique ne se met en pleine route que durant le sommeil : restant éveillé, à la lumière artificielle qui plus est, on peut dire que les relations sexuelles ne sont pas moins intenses qu’à d’autres moments !

Menstruations et désir

Le terme « menstruation » provient du latin mensins : le mois. La périodicité reproductive féminine se réfère aux cycles lunaires, de même durée : 28 jours environ. Si cela semble être une coïncidence, le synonyme « règles » n’en est pas une : une femme réglée (convenablement) a un mode de vie sain, c’est-à-dire une alternance régulière veille/sommeil.

La survenue des règles peut donc être perturbée par les troubles du sommeil, et par là-même l’activité reproductive et le plaisir sexuel. L’équilibre hormonal doit en effet beaucoup à l’alternance entre le nuit et le jour. La sécrétion des hormones varie beaucoup selon le temps ; en particulier la mélatonine et le cortisol sont incriminées dans le rythme biologique.

Or les menstruations ont une implication sur la « santé sexuelle » (si l’on peut dire), un dérèglement hormonal (littéralement) influant parfois sur le désir féminin. Le célèbre psychiatre Krafft-Ebing s’est intéressé à l’aversion sexuelle dès 1886 (pas que cela soit nécessairement une maladie, mais cela peut le devenir). Il ne donne pas de définition mais s’y réfère comme étant des « impedimenta » psychiques, « aversion, dégoût » qui feront que « la sensation de volupté semble rester le plus souvent absente ».

Il est clair que le temps – qui passe ou qu’il fait – influe sur les hormones, or les hormones influent sur le désir sexuel. Par transitivité, le temps influe sur le désir sexuel… Mais cela, on le sait ! Quoi de plus typique que l’amour à la plage ?

Alerte à Malibu totalise en 1996 1,1 milliards de téléspectateurs par semaine ! Un sixième de la population mondiale serait-elle accro aux formes généreuses des sauveteuses et aux pectoraux des sauveteurs ?

Deux hormones-clé

Chez les deux sexes, la mélatonine est une hormone sécrétée par la glande pinéale, non loin de l’hypothalamus, dont une zone, en particulier, s’appelle noyau suprachiasmatique : c’est là que siège notre horloge interne, en plus du thermostat veillant au maintien de la température corporelle.

La mélatonine se retrouve chez tous les mammifères, et même chez diverses algues et plantes : les bananes en sont riches, ainsi que le riz et l’ananas, dans une moindre mesure. C’est une hormone primordiale, où sens où elle régule la sécrétion de la plupart des hormones (c’est une superhormone, en quelque sorte). Elle contrôle entres autres, et indirectement, l’appétit et la glycémie, mais surtout le sommeil.

La mélatonine est synthétisée à partir de la sérotonine, molécule également cruciale dans le psychisme, dérivant elle-même du tryptophane (voir un article évoquant les bienfaits et vertus aphrodisiaques du chocolat).

Un antidépresseur léger utilisé dans le traitement de l’asthénie et des dépressions saisonnières, l’agomélatine, agit d’ailleurs sur les récepteurs à la mélatonine, ainsi que sur ceux à la sérotonine 5-HT2C. Le médicament synchronise le rythme circadien, de même qu’un analogue synthétique de la mélatonine, le rameltéon.

Plusieurs études tendent à prouver que la mélatonine augmenterait la libido masculine, via antagonisme des récepteurs à la sérotonine 5-HT2A. La mélatonine est également un antioxydant, donc anti-vieillissement, au rôle préventif dans ces certains cancers (c’est démontré) : que de bonnes raisons de manger des bananes !

Le cortisol, quant à lui, est tout particulièrement incriminé dans la sensation de stress… Or stress et sexualité ne font pas bon ménage ; comme c’est souvent le cas biologiquement, il y a intrication entre fatigue, stress et désir.

L’étude du rythme circadien, ou nycthéméral quand il désigne l’alternance jour/nuit, est l’objet de la chronobiologie, étude des phénomènes temporels influant sur les êtres vivant (il existe des rythmes plus courts, tel l’infradien et l’ultradien). Le travail de nuit occasionne généralement des troubles du nycthémère, se répercutant sur la santé (stress, fatigue, humeur, douleurs, prise de poids…), donc susceptibles d’induire un manque d’engouement sexuel.

Mais aussi, le rythme biologique est largement influencé par les saisons : il serait abusif de dire que le corps tourne au ralenti en hiver (on n’hiberne pas !), mais nous sommes plus dynamiques à la belle saison (fréquence cardiaques plus rapide) que dans le nuit hivernale, en particulier sur le plan sexuel… Quand les papillons s’accouplent, le corps humain, bouillonnant, est au maximum de ses capacités pour en faire de même !

Papillon sur ce qui ressemble à buddleia, mais qui n’en est pas !

Stop à la morosité !

En ce temps de récession, Sylvain Mimoun, auteur de l’Antiguide de la sexualité et qui s’est exprimé pour Le Parisien, est le premier à être étonné par le défaitisme sexuel :

« faire l’amour, lorsque ça va mal, permet de fabriquer des endorphines et de se changer les idées ».

Comme ce spécialiste le suggère, il s’agit de bien choisir ses sujets de conversation et d’éviter de parler de tous les malheurs du monde avant de passer aux petits câlins

Le temps ensoleillé est justement des plus propices aux divagations les moins catholiques…

Printemps=soleil(=sexe ?)

Les bienfaits de la lumière sur le psychisme ne sont plus à démontrer. La luminothérapie est même utilisée dans le traitement des dépressions. Si le spleen n’est pas l’apanage de nos latitudes sujettes à l’hiver, il est en revanche plus rare dans les contrées plus ensoleillées. Toute la question est de savoir si la lumière incite au passage à l’acte sexuel, mais il semble bien que oui !

Why don’t you love me, Jenny ? Extrait du film Forest Gump.

Toujours est-il qu’à l’inverse de la plupart des femelles animales, la femme est en chaleur – c’est le terme consacré, à moins qu’on ne préfère parler d’œstrus – pendant une partie bien précise de son cycle, mais disponible sexuellement (quasiment !) tout le temps, de même que l’homme…

La différence réside en ce que l’homme, est moins assujetti aux variations temporelles : sa sexualité n’est carrément pas emprunte d’une dimension temporelle, au sens où il n’ovule pas, et hop, deux semaines plus tard, écoulement de sang. La spermatogenèse se faisant en continu, le mâle de notre (charmante) espèce n’a aucun repère temporel inné : c’est à la culture de lui en inculquer, ou à la femme qu’incombe cette tâche épineuse. Concrètement, cela se traduit pas « pas ce soir… », signifiant que les femmes sont affectées physiologiquement par les règles (douleurs, fatigue, bouffées de chaleur, bouleversement hormonal), tandis que l’homme est théoriquement aussi ready (comme on dit en bon français) le 1er du mois que le 28 ! D’aucuns n’admettront que l’homme a aussi ses limites physiologiques et qu’il n’est pas une bête de sexe comme on voudrait bien le croire… D’autant que la femme peut jouir plusieurs fois d’affilée, alors que l’homme a une période orgasmique dite réfractaire : il doit attendre un certain temps, parfois long, entre deux éjaculations.

Le terme de « chaleur » n’est pas un hasard : l’activité reproductive est calquée sur les saisons. Même si on a tendance à les dissocier dorénavant, l’activité sexuelle, plus précisément le désir sexuel, est étroitement lié à l’activité reproductive, puisque régulée par des hormones (d’où la possibilité de castration chimique qui atténue les penchants érotiques).

Concernant le plaisir sexuel optimal – si tant est qu’il faille se poser systématiquement la question – de précédentes études scientifiques évoquaient 7h30 du matin, heure à laquelle le corps se trouverait dans les meilleures dispositions, tant chez la femme que chez l’homme (taux maximal de testostérone, d’où la vigueur des érections matinales). Une étude récemment parue dans le Women’s Health Magazine démontrerait cependant que les femmes en ont le plus envie le samedi soir vers 23h00. Qui dit jour précis, dit influence socioculturelle… A bon entendeur, salut !

Histoire succincte du diabète et de ses traitements

Tant l’histoire du diabète est pluridisciplinaire, elle mérite d’être contée : elle fait intervenir les chimistes, les biochimistes, les physiciens, les biologistes, les pharmaciens et bien sûr les médecins !

Pour réaliser ce bref exposé, je me suis basé sur un cours de l’Université Paris V Descartes, dûment vérifié avec plusieurs sources différentes.

Sa compréhension suppose connus les fondements du diabète : le diabète est une insuffisance pancréatique (aux causes multiples). La maladie est plus particulièrement due au dysfonctionnement des cellules bêta des îlots de Langerhans, structures du pancréas impliquées dans la sécrétion endocrine du pancréas (par opposition aux acini séreux déversant les sucs pancréatiques à destination de l’estomac via les canaux de Wirsung et Santorini).

Pour ce qui nous intéresse, le pancréas sécrète l’insuline (hormone hypoglycémiante) et le glucagon (hormone hyperglycémiante) : il joue donc un rôle primordial dans la régulation de la glycémie. Le diabète est une insuffisance partielle ou totale en insuline.

Ainsi, tout commence dans la haute Antiquité, puisque le papyrus d’Ebers (1460 av. J.-C. environ) mentionne les symptômes du diabète, en insistant sur la polyurie (uriner sans cesse). Les analyses sur la momie de la reine-pharaon Hatchepsout ont montré qu’elle était probablement atteinte de diabète.

En Inde, les médecins Susruta et Charaka remarquent les mouches et les fourmis sont attirées par l’urine de personnes atteintes d’un mal mystérieux, cause d’une soif intense (polydipsie). Le « madu mehe » (urine de miel) touche surtout les riches, en raison de leur consommation accrue de sucre.

En Chine, des livres de médecine vieux de 4000

On doit le mot « diabète » à Apollonius de Memphis, qui le forge en 250 av. J.-C. à partir des mots « dia » (à travers) et « betos » (fuite). En latin, diabetes signifie « siphon », étant donné que les malades ingèrent une grande quantité d’eau qu’ils éliminent presque aussitôt. Apollonius de Memphis interprète la maladie comme une production de fluide plus importante que ce que le malade peut absorber.

Au premier siècle de notre ère, Arétée de Cappadoce suppose la liquéfaction des chairs dans l’urine. En effet, les diabétiques deviennent rapidement squelettiques ; c’est un des symptômes de la maladie… Il note qu’après l’amaigrissement la mort survient vite, et que les reins et la vessie ne cessent d’émettre de l’urine. L’émission est profuse et n’a de limite que la mort !

Le célèbre médecin Claude Galien, exerçant à Pergame, décrit le diabète comme une maladie rénale vers 164.

Maïmonide s’impose comme le premier épidémiologiste du diabète. Ses conclusions sont en effet remarquables : « On voit peu de diabète en Europe, contient froid, alors qu’il est fréquent en Afrique, continent chaud. » Il note la grande proportion de diabétiques en Egypte, mais s’abuse néanmoins en supposant une origine climatique au diabète.

Pendant des siècles, médecins et goûteurs d’eau (sic) gouttent l’urine des patients diabétiques : le diagnostic repose sur le goût sucré de cette urine. Le diabète est alors nommé diabetes mellitus (diabète au goût de miel), terminologie toujours d’actualité (diabète sucré).

Au seizième siècle, le médecin Paracelse fait l’hypothèse de la corruption des humeurs (dans le cadre de la théorie des humeurs en vogue depuis Hippocrate). Pour lui, le diabète est une « combinaison inadaptée de soufre et de sel dans le sang ». Il voir une origine rénale au diabète (défaillance des reins), ce qui provoquerait une excrétion urinaire excessive. En chauffant l’urine des diabétiques, il obtient une poudre blanche (du sel) : et pour cause, la maladie agit comme un diurétique, en augmentant l’excrétion du chlorure de sodium, par l’urine. Il est également le premier à proposer le jeûne le plus complet aux diabétiques.

Thomas Willis (1621-1675) remarque que le diabète n’est pas une maladie rénale. Pour lui, c’est une maladie du sang, dont la partie aqueuse s’échappe dans l’urine. Il différencie surtout les diabètes : d’un côté le diabète sucré, de l’autre le diabète insipide.

Dans le même temps, le Bavarois Johann Georg Wirsung (1600-1643) étudie le pancréas. Il identifie le canal qui part du pancréas pour arriver dans l’intestin, et qui portera son nom par la suite…

Le médecin suisse Johann Conrad Brunner (1653-1727), est le premier à mentionner l’origine pancréatique du diabète. Après pancréatectomie de chiens, il observe en 1683 que les animaux ont une soif extrême et urinent fréquemment. Polyurie et polydipsie sont donc induites par l’ablation du pancréas.

« Experimenta Nova circa Pancreas. Accedit diatribe de lympha & genuino pancreatis usu. » est le premier ouvrage aux conclusions expérimentales sur l’origine pancréatique du diabète.

En 1776, Matthew Dobson obtient par évaporation de l’urine d’un diabétique une substance ressemblant au sucre roux (aspect et goût), mais les moyens de l’époque ne lui permettent pas de la caractériser précisément. Il est aussi le premier à donner une définition proche des diabètes de type I et II actuels, puisqu’il différencie le diabète : diabète chronique et diabète aigu, mortel.

Thomas Cawley, en 1788, publie dans le London Medical Journal une observation fort intéressante tirée d’une autopsie de diabétique : il note des lésions pancréatiques.

Frank Johann Peter (1745-1821), médecin allemand considéré comme un pionnier de la santé publique et de l’hygiène, a l’idée simple d’ajouter de la levure à l’urine des diabétiques pour détecter la présence de sucre : le dégagement gazeux produit par la fermentation signe la présence de sucre. Il établit, en outre, une classification des diabètes.

Le médecin écossais John Rollo (1750-1809), dans son livre An account of two cases of the Diabetes Mellitus paru en 1797, remarque l’odeur de pomme pourrie (plutôt type pomme verte en fait) de l’haleine des diabétiques. Pour lui, la maladie est d’origine stomachale : sécrétion exagérée de sucs gastriques. Aussi, il met en évidence le lien entre obésité et diabète, ainsi que la bienfaisance des régimes (ceux-ci réduisent la quantité d’urine). Il prescrit un régime à un patient obèse, le capitaine Meredith.

La chimie s’en mêle

Dupuytren et Thénard sont les premiers chimistes à supposer l’existence d’un quatrième sucre (le glucose !), présent uniquement dans l’urine des diabétiques. A l’époque, on ne connait que le sucre de fruit (fructose), le sucre de champignon (mannitol), ainsi que le « vrai » sucre (saccharose).

C’est Michel Eugène Chevreul qui, en 1815, identifie le glucose. Son article, Note sur le sucre de diabétique, paraît dans les Annales de Chimie.

La physique s’en mêle

Peu de temps après la découverte de Chevreul, Jean-Baptiste Biot établit avec le chimiste Jean-François Persoz les lois de rotation du plan de polarisation de la lumière.

En utilisant le pouvoir rotatoire du sucre, la voie est ouverte à la détermination de la concentration en sucre de l’urine des diabétique. En effet, l’angle de déviation de la lumière polarisée est proportionnel à la concentration d’une substance optiquement active. C’est ainsi qu’on va pouvoir mesurer (approximativement) la teneur en sucre de l’urine des malades. Le glucose est alors appelé dextrose, car il dévie à 52,7° la lumière polarisée vers la droite (dextrogyre).

Le saccharimètre n’est qu’un polarimètre particulier.

En raison de la présence de quatre carbones asymétriques, le glucose est une molécule chirale, dont le stéréo-isomère naturel est le D-glucose. Bien qu’il existe un équilibre de tautomérisation, le β-D-glucopyranose est la forme majoritaire.

Beta-D-Glucose.svg

Le β-D-glucopyranose (ici en conformation chaise) est le conformère biologique du D-glucose, plus précisément l’anomère β (groupement OH vers le haut).

DGlucose Fischer.svg

Projection de Fisher du D-glucose (le groupement OH le plus en bas est vers la droite, d’où D)

Grâce à ce nouvel instrument qu’est le saccharimètre, une relation entre glycémie (taux sanguin de glucose) et glycosurie (taux urinaire de glucose) est alors démontrée.

Dans son laboratoire de l’Hôtel-Dieu, à Paris, le pharmacien Apollinaire Bouchardat (1809-1866) s’en donne à cœur joie avec la chimie du sucre. A la même époque, en effet, de nombreux réactifs chimiques sont mis au point. En 1831, Becquerel entrevoit la curieuse propriété que possède le glucose de réduire l’oxyde cuivrique hydraté en donnant un précipité d’oxyde cuivreux. Le chimiste allemand Trommer signale en 1841 cette réaction à l’Académie des Sciences de Berlin. Le Français Charles-Louis-Arthur Barreswil (1817-1870), professeur de chimie à l’Ecole Turgot, améliore en peu de temps la découverte, qui lui vaut en 1844 le Prix de la Société pour l’Encouragement de l’Industrie Nationale. On trouvera des détails sur ce chimiste qui a fait beaucoup pour la médecine dans un article intitulé Charles-Louis-Arthur Barreswil et les sciences médicales http://www.biusante.parisdescartes.fr/sfhm/hsm/HSMx1986x020x003/HSMx1986x020x003x0243.pdf

La réaction sus-citée est à la base d’un réactif ultra-connu des sucres : la liqueur de Fehling (élaborée par Hermann von Fehling). Il se trouve que le glucose est un aldohexose : il possède une fonction aldéhyde. Par conséquent, il réduit la liqueur de Fehling selon l’équation-bilan :

R-CHO + 2 Cu2+(aq) + 5 HO(aq) → RCOO + Cu2O(s) + 3 H2O

La formation d’un précipité rouge brique d’oxyde cuivreux permet de caractériser, entre autres, le glucose.

A l’Hotel-Dieu, Bouchardat mesure chaque jour la glycosurie des patients et concilie les résultats dans un carnet pour chaque patient : « cet essai de tous les jours est, pour la glycosurie, comme la boussole qui guide le navigateur sur des terres inconnues », écrit-il. Une glycosurie élevée est en effet signe de la gravité d’un diabète.

En 1839, le pharmacien publie un mémoire sur la nature et le traitement du diabète sucré. Il constate plus tard, en 1850, un affaiblissement de l’acuité visuelle chez les diabétiques (le diabète est aujourd’hui la première cause de cécité dans le monde).

Sa liste de symptômes du diabète est très complète :

– soif
– faim
– amaigrissement
– asthénie
– rétinopathie
– neuropathie
– gastroparésie
– troubles cardiaques
– troubles respiratoires (dyspnée, polypnée)
– altérations cutanées
– infections fréquentes
– problèmes bucco-dentaires
– troubles de la libido
– diminution de la fécondité

Une de ses remarques épidémiologiques provient de l’Histoire : lors du siège de Paris, dans le cadre de la Commune de 1870, Bouchardat remarque une amélioration des symptômes : la privation de nourriture est un facteur bénéfique pour les diabétiques. Il remarque qu’un mode de vie sain (ne pas manger trop sucré et pratiquer une activité physique régulière) permet de contenir un diabète, au point d’avoir une vie presque normale.

Pour Bouchardat, le diabète est une maladie insidieuse qu’il faut dépister le plus tôt possible. Il préconise un régime draconien : « vous ne guérirez qu’à condition de ne vous croire jamais guéri ».

Avec le Docteur Claude-Marie Stanislas Sandras, Bouchardat, qui a remarqué que le pain est l’ennemi numéro 1 des diabétiques, s’interroge sur la transformation de l’amidon ingéré en glucose.

On trouvera une biographie, assortie des travaux détaillés de Bouchardat ici : http://www.biusante.parisdescartes.fr/sfhm/hsm/HSMx2007x041x003/HSMx2007x041x003x0287.pdf (publiée dans la revue Histoire des Sciences médicales et rédigée notamment par le professeur François Chast, président de l’Académie Nationale de Pharmacie).

L’auteur souligne que depuis 1981 un prix Apollinaire Bouchardat est décerné par les diabétologues français, conférant une notoriété internationale au patronyme Bouchardat, pourtant peu connu au plan national.

On commence alors, dans les années 1850, à incriminer une diastase pancréatique, vieux terme signifiant enzyme.

« Dans le cas le plus simple, on peut admettre une exagération du ferment spécial sécrété par le pancréas », telle est une phrase prononcée à l’Académie des Sciences le 20 janvier 1845.

L’apport Claude Bernard (1813-1878)

Claude Bernard, médecin, physiologiste, membre de l’Académie Française et sénateur, est le fondateur de la médecine expérimentale, ainsi que le théoricien de l’homéostasie (maintien du milieu intérieur). En cela, il s’est beaucoup intéressé à la régulation hormonale.

Pour les biologistes de l’époque, les animaux – dont l’Homme – détruisent le sucre (du moins l’utilisent), mais ne peuvent pas en produire : c’est l’apanage des végétaux. Claude Bernard recherche l’origine de cette destruction : poumons, foie ?

Des années durant, Claude Bernard dose le sucre dans le sang prélevé à différentes parties de l’organisme, sur des animaux vivants ou fraîchement sacrifiés, certains nourris avec des glucides, d’autre à jeun ou nourris exclusivement de viande.

En 1848, il écrit une phrase tonitruante : « C’est à n’y rien comprendre ! » En effet, ses résultats expérimentaux ne sont pas conciliables avec l’idée d’une destruction du sucre par l’animal. Claude Bernard effectue en effets différents prélèvement, en amont et en aval du foi (c’est-à-dire dans la veine porte et dans la veine hépatique), et remarque que la concentration en glucose est supérieure en aval du foie, preuve que le foie synthétise du glucose (fonction aujourd’hui appelée glycogénolyse).

« C’est ce que nous pensons déjà connaître qui nous empêche souvent d’apprendre », note Claude Bernard.

Le glycogène, forme de stockage du sucre chez les animaux (équivalent de l’amidon végétal) est un polymère de glucose.

Il en conclut mot pour mot que « du sucre se forme dans le foie », et continue ses expériences. Selon que l’animal est suffisamment nourri ou non, Claude Bernard remarque que le foie synthétise plus ou moins de glucose. Il y a donc une régulation de la glycémie faisant intervenir le foie.

De ses études sur l’animal, puis chez l’Homme, Claude Bernard tire une conclusion remarquable : chez un sujet sain, la glycémie est indépendante de l’alimentation. Elle avoisine en effet le gramme par litre…

Ouvrage de Claude Bernard (la glycogenèse a depuis pris le nom de glycogénogenèse).

Leçons sur le diabète et la glycogenèse animale est consultable sur Gallica (BNF) : http://gallica.bnf.fr/ark:/12148/bpt6k77326m

Claude Bernard avait un mot d’ordre : « Pourquoi penser quand vous pouvez expérimenter ? Epuisez donc l’expérimentation et pensez ensuite ! » Il effectua notamment la célèbre expérience du foie lavé : trempez un foie dans l’eau, attendez un certain temps, et mesurez la concentration en sucre. Elle est positive… Lavez à nouveau le foie, attendez, mesurez la concentration en sucre : elle est positive !

Au fur et à mesure que le temps passe, du sucre est libéré par le foie. S’il ne l’est pas tout de suite, c’est que le sucre doit exister – et existe ! – sous une forme insoluble : le glycogène !

On sait aujourd’hui que la dégradation du glycogène est catalysée par la glycogène phosphorylase, codée par le gène PYGM situé au niveau du locus q13 du chromosome 11.

En 1869, à Berlin, se produit une révolution dans la diabétologie, qui passera pourtant inaperçue : Paul Langerhans, alors étudiant en médecine, publie ses travaux sur la structure microscopique du pancréas. Il y note deux systèmes imbriqués : un conglomérat cellulaire produit les sucs pancréatiques ; l’autre partie ressemble à un archipel : quelle est sa fonction ? Un jour, ces structures insulaires prendront le nom d’îlots de Langerhans. Si le mot « insulaire » ne vous évoque pas quelque chose…

Îlot de Langerhans (masse claire) baignant dans une mer d’acini séreux (masse violet foncé, sécrétant les sucs pancréatiques).

Cet exploit – distinguer les structures du pancréas – n’a été rendu possible que grâce aux colorants chimiques qui venaient d’êtrem is au point. Mais à quoi peuvent bien servir les îlots de Langerhans ? Nul ne le sait alors !

Dans les années 1880, le colorimètre de Duboscq (ancêtre du spectrophotomètre) est mis au point par Louis Jules Duboscq (1817-1886). Se basant sur la loi de Beer-Lambert, qui relie la concentration d’une espèce en solution à son absorbance lumineuse, ce dispositif permet d’affiner les mesures du saccharimètre.

Le colorimètre de Duboscq est une merveille en son genre.

On dispose l’échantillon (comme l’urine, ou un distillat d’urine) dans des cuves. L’atténuation d’un faisceau lumineux traversant la solution renseigne sur la concentration en glucose.

Cependant, au dix-neuvième siècle, les analyses chimiques sont longues. Elles nécessitent de purifier l’urine, en faisant par exemple appel à des méthodes de cristallisation fractionnée. On n’en est pas à l’analyseur multiparamétrique à haut débit des années 2000…

Etienne Lancereaux (1829-1910) défend l’origine pancréatique du diabète, en introduisant le terme de « diabète pancréatique ». Il publie en 1888 diverses preuves de l’implication du pancréas dans le diabète. Un an plus tard, le Docteur Oskar Minkowski (frère du mathématicien et physicien Hermann Minkowski et père de l’astronome Rudolph Minkowski), ainsi que le physicien Joseph Von Mering, travaillant tous deux à l’Université de Strasbourg confirment l’hypothèse de Lancereaux.

En 1890, Lindsay Opie (1873-1971) pense que le diabète est dû à la destruction des îlots de Langerhans.

Marcel Eugène Gley (1857-1930) est alors un pionnier en son genre : dès 1891, il prépare des extraits de pancréas destinés à soigner le diabète, mais abandonne ses recherches prématurément pour se consacrer au professorat au Collège de France.

A l’aube du vingtième siècle, on ne dispose toutefois d’aucun traitement contre le diabète, si ce n’est la prévention !

La révolution du vingtième siècle : l’insuline

Le pathologiste Carl Von Noorden (1858-1944) découvre, ou plutôt formalise la diététique dans le traitement du diabète. Il recommande en particulier de consommer de l’avoine, et peu de pommes de terre. La cétose, diète faible en glucides, est recommandable aux diabétiques ; toutefois elle doit être modérée, au risque de conduire à l’acidocétose (production néfaste de corps cétoniques par l’organisme), d’autant que nous savons aujourd’hui que le déficit en insuline conduit, par l’intermédiaire du glucagon, à la cétogénèse (voie alternative de consommation de l’acétyl-coenzyme A). Mais n’allons pas trop vite…

Au début du vingtième siècle, les seuls traitements contre le diabète, sont ce qu’on appelerait aujourd’hui des médicaments homéopathiques, c’est-à-dire des boissons à base de plantes dont l’efficacité n’est pas démontrée. Pour autant, le quinquina augmente les forces, les opiacés coupent l’appétit et les solanées diminuent la glycosurie. Bien entendu, aucun de ces traitements n’est réellement curatif, mais ils soulagent légèrement les symptômes du diabète.

En 1906, le pathologiste Bernhard Naunyn (1839-1925) introduit la notion d’acidocétose diabétique (cétogénèse consécutive aux carences en insuline). La respiration difficile des patients en acideocétose a déjà été décrite par Adolf Kussmaüll en 1874.

Le Docteur Frederick Madison Allen est sans doute l’un des plus grands diabétologistes du vingtième siècle. En 1919, il publie Total Dietary Regulation in the Treatment of Diabetes. Pour lui, l’opothérapie (injection d’hormones, ou extraits animaux) est nécessaire, d’autant qu’en 1853 Alexander Wood a mis au point la seringue, telle qu’on la connaît aujourd’hui. Allen soutient que ce n’est pas la production de sucre endogène qui pose problème dans le diabète, ni même l’absorption intestinale. Il devient directeur de l’unité de diabétologie du Rockefeller Institute en 1920.

Le Docteur Elliott P. Joslin (1869-1962) est cependant le premier diabétologue reconnu, au sens où il est médecin spécialiste du diabète. Il est le fondateur du Joslin’s Diabete Center de Boston, qui existe toujours. Mais surtout, Joslin milite pour l’éducation thérapeutique des patients : pour vivre avec leur diabète, les patients doivent être informés du régime adéquat. En plus d’écrire un manuel d’éducation à visée du malade diabétique, Joslin développe surtout les sois infirmiers (la wandering nurse).

Jusque dans les années 1920, cependant, le diabète reste une maladie dévastatrice… Retour en arrière en 1906 : Georg Ludwig Zuelzer met au point l’Acomatrol, extrait de pancréas plus ou moins purifié. Il en injecte à un diabétique mourant qui, après une amélioration transitoire, meurt. Il dépose un brevet aux USA, mais en Allemagne ses résultats sont modestes et les autorités ferment sont laboratoire.

En août 1921, le professeur de médecine roumain Nicolae Paulesco montre que chez un chien pancréatectomisé, l’injection intraveineuse d’un extrait pancréatique (appelé Pancréine, et alors purifié avec de la soude et de l’acide chlorhydrique) provoque une diminution notable de l’hyperglycémie, pouvant aller jusqu’à l’hypoglycémie. Il décrit la durée d’action brève du traitement, et en raison de l’irritation locale lors de l’injection, est contraint d’abandonner l’idée d’un essai chez l’Homme.

La révolution aura lieu au laboratoire de John J. R. Macleod : parti en vacances, il laisse les clefs de son laboratoire à l’un de ses plus brillants étudiants, Charles Best, ainsi qu’à Frederick G. Banting.

La clé du problème

En octobre 1920, Banting lit un article de Moses Barron (1911-1978) de l’Université du Minnesota décrivant une pancréatite (infection du pancréas) ayant détruit les acinus séreux, mais laissant intacts les îlots de Langerhans, situation identique à la ligature des canaux pancréatiques.

Dès lors, Banting prépare un extrait de pancréas sans interaction avec les sucs pancréatiques : la trypsine qu’ils contiennent digèrent une éventuelle substance active des îlots de Langerhans. De plus, la trypsine active par clivage une proenzyme : le chymotrypsinogène, devenant alors la chymotrypsine, une protéase.

L’été 1921, Banting et Best connaissent leur premier succès : l’injection d’extraits d’îlots de Langerhans, et non plus de pancréas entièrement, augmente la durée de vie de chiens pancréatectomisés.

Banting (à droite) et Best (à gauche) posent avec Marjorie, chienne qui survira 70 jours sans pancréas !

Le 30 décembre 1921, Banting présente une conférence à l’Université de Yale, intitulée The beneficial influences of certain pancreatic extracts on pancreatic diabetes. Remarquez bien le « certains » extraits !

Intervient alors le biochimiste James B. Collip. Il évalue la puissance des préparations par l’abaissement de la glycémie du lapin non diabétique.

En janvier 1922, il remarque de l’extrait pancréatique purifié contient un agent antidiabétique. Cet agent est non toxique et permet à un chien diabétique d’abaisser considérablement sa glycémie. L’agent en question est nommé isletin, car islet signifie îlot (de Langerhans !) en anglais. Collip note toutefois la puissance extraordinaire de cet agent, pouvant s’avérer dangereuse : chez le lapin, l’injection d’extraits pancréatiques peut provoquer une hypoglycémie s’assortissant de convulsions !

C’est en avril 1922 que l’insuline acquiert son nom actuel. Entre temps, des dizaines d’essais cliniques ont été effectués, presque tous avec succès. Si l’injection d’insuline provoque des hypoglycémies mortelles, elle n’en reste pas moins, au printemps 1922, un traitement-miracle.

Dans le même temps, Banting et Best procèdent à la première injection chez l’être humain : le 11 janvier 1922, injection de 7,5 mL d’une « épaisse boue brune » (sic) à Leonard Thomson, diabétique de 14 ans mal en point. Des abcès se forment ; le lendemain al glycémie baisse modérément. Son état se dégrade alors, et étant donné que les doses sont mal connues, ainsi que l’écart entre deux injections, Banting et Best sont contraints d’arrêter net l’essai.

Macleod et Collip sont furieux de cet essai qu’ils jugent trop précoce. Une deuxième injection a lieu le 23 janvier : Collip a amélioré la préparation destinée au jeune Leonard. Cette fois, c’est un succès ! La glycémie baisse de 5,2 à 1,2 g/L. Les deux jours suivant, les chercheurs ne procèdent à aucun essai et la glycémie remonte alors. Dans les semaines qui suivent, Leonard Thomson subit une administration quotidienne, et reprend alors du poids et des forces. Leonard Thomson, premier patient traité à une molécule qui n’est autre que l’insuline, vivra treize années supplémentaires, en assez bonne santé (il meurt d’une pneumonie).

La première publication sur les effets de l’insuline dans le traitement du diabète a lieu en février 1922 dans The Journal of Laboratory and Clinical Medicine. Comme le traitement est révolutionnaire, les premiers lots sont fabriqués dès le mois d’avril par l’Université de Toronto. Les premiers flacons d’insuline ont une teneur en principe actif de 10 UI/mL (contre 100 UI/mL en 2000 !) mais s’avèrent efficaces ; cependant ils sont vite remplacés par des flacons à 40 UI/mL, dépourvus d’effets secondaires trop gênants. On précise que 1 UI (Unité Internationale) d’insuline est l’équivalent biologique d’environ 45,5 microgrammes : pour agir, il faut des quantités relativement importantes d’insuline.

Teddy Ryder fut l’un des premiers patients traités à l’insuline : il devint un petit garçon joufflu qui retrouva sa joie de vivre !

Teddy Ryder (1918-1994), ici peut de temps avant sa mort, mourut à 76 ans grâce à l’insuline !

L’un des tous premiers patients traités à l’insuline est Elizabeth Hughes Gossett, la fille du Gouverneur de New York. Est ensuite traité le futur artiste James D. Havens : le Dr John Ralston Williams importe l’insulinr depuis Toronto jusqu’à Rochester (Etat de New York) pour traiter Havens.

Triste histoire pour Charles Best, découvreur de génie : le Prix Nobel de médecine 1923 fut décerné à John Macleod et Frederick Banting. L’Institut Karolinska a dû le juger trop jeune, mais il n’y a pas d’âge pour sauver des millions de gens !

L’insuline est une des plus grandes découvertes médicales.

La suite de l’histoire

L’histoire ne s’arrête pas là pour autant ! Reste à comprendre l’origine du diabète et le mode d’action, ainsi que la structure de l’insuline.

John Jacob Abel enseigne la pharmacologie à l’Université John Hopkins (Baltimore) de 1893 à 1932. Il y poursuit ses recherches jusqu’en 1938, car pour lui la chimie permet d’expliquer la médecine. Son objectif est d’isoler et de purifier des hormones, telle l’adrénaline, mais aussi l’insuline, justement. En 1926, Abel obtient une insuline cristallisée. C’est alors la première protéine purifiée. La brièveté de la durée d’action conduit à de nombreuses réflexions sur la pharmacocinétique de l’insuline.

Fichier:Insulincrystals.jpg

Cristaux d’insuline.

Afin d’éviter les injections répétées, l’objet de la recherche biomédicale des années 1930 est de prolonger la durée d’action de l’insuline. Pour cela, il faut comprendre sa structure. Or, à cette époque, on ne sait pas de quoi est fait une protéine !

Le Docteur Hans Christian Hagedorn obtient les droits sur l’insuline, au Canada : il fonde en 1923 l’une des plus grandes entreprises spécialisées dans les soins aux diabétiques : Nordisk Insulinlaboratorium (aujourd’hui Novo Nordisk, basé au Danemark). Mais il n’est pas seul : le chimiste A. Kongsted prend part au projet ainsi qu’August Krogh, qui, en 1920, a reçu le prix Nobel de physiologie ou médecine « pour sa découverte du mécanisme de régulation moteur des capillaires« . Il a également défini la constante de Krogh (produit du coefficient de diffusion d’un gaz avec sa capacitance).

En 1936, la NPH (Neutral Protamine Hagedorn) est préparée par additions de protamines à l’insuline. Cette préparation sera remplacée en 1952 par l’insuline lente, préparée avec du zinc.

Frederick Sanger est le biochimiste qui va révolutionner le séquençage des protéines (et pas seulement que des protéines d’ailleurs, puisqu’il met au point la méthode de séquençage de l’ADN qui porte son nom). Sanger est l’un des rares à avoir reçu deux fois le Prix Nobel de chimie : une fois en 1958 « pour son travail sur la structure des protéines, particulièrement celle de l’insuline, l’autre en 1980 avec Walter Gilbert » pour leurs contributions à la détermination des séquences de base dans les acides nucléiques ».

En fait, le séquençage d’un protéine est plus difficile que celui de l’ADN. Dans son discours du Prix Nobel de 1958, Sanger explique : « Les résultats […] indiquent que les protéines sont des substances chimiques définies, qui possèdent une structure unique dans laquelle chaque position de la chaîne est occupée par un, et un seul, résidu d’acide aminé ». A cette époque, on ne connaît pas bien la structure des protéines, en effet !

En 1955, il parvient pourtant à séquencer l’insuline, cette prouesse étant à l’origine de la bioinformatique.

On sait aujourd’hui qu’une protéine est un assemblage d’acides aminés liés entre eux par des liaisons peptidiques. La liaison peptidique est une liaison covalente qui s’établit entre la fonction carboxyle portée par le carbone α d’un acide aminé et la fonction amine portée par le carbone α de l’acide aminé suivant dans la chaîne peptidique. Elle correspond à une fonction amide dans le cas particulier des macromolécules biologiques.

Formation d’une liaison peptidique, liant entre eux les acides aminés constitutifs d’une protéine.

Reste à résoudre la structure de l’insuline. Comme toutes les protéines, elle se caractérise par un agencement d’acides aminés dans un certain ordre (structure primaire) :

Séquence en acides aminés de l’insuline humaine. Celle-ci se compose d’une chaîne A de 21 acides aminés et une chaîne B de 30 acides aminés.

Le séquençage d’une protéine se dit de la résolution de sa structure primaire. C’est chose faite en 1955, grâce à la chromatographie bidimensionnelle mais la partie est loin d’être terminée !

La structure secondaire définit le repliement local d’une chaîne polypeptidique.

La structure tertiaire, ou repliement tridimensionnel des chaînes polypeptidiques, confère à une protéine son activité (en particulier un site actif dans le cas des enzymes).

Schéma de la structure tridimensionnelle de la myoglobine. Les hélices α, reliées par des coudes, sont indiquées en couleur. Les régions en pelote aléatoire sont en blanc.

Concernant la structure quaternaire (nombre de chaînes polypeptidiques), on sait aujourd’hui que l’insuline est une protéine dimérique : elle possède deux sous-unités.

La voici donc… Sa forme active se compose de deux chaînes polypeptidiques reliées par des ponts disulfure, mais elle est stockée sous forme hexamérique (agrégat de trois molécules d’insuline à deux chaînes).

Hexamère d’insuline : l’insuline est stockée dans le pancréas sous cette forme (un ion zinc, en violet assure la stabilité).

Entre temps, la biologie structurale s’est enrichie de nombreuses méthodes d’élucidation, comme la diffractométrie des rayons X ou la Résonnance Magnétique Nucléaire (RMN), ou encore la cryo-microscopie.

En 1902, Nicholls décrit une tumeur des îlots de Langerhans.

En 1927, Wilder enlève chirurgicalement un insulinome.

En 1938, George Laidlaw définit la nésidioblastose du pancréas : il s’agit d’une tumeur des îlots de Langerhans,  cause d’hyperinsulinisme famililial (due à une mutation du gène KCNJ11).

Mode d’action de l’insuline

L’insuline est produite par les cellules β des îlots de Langerhans du pancréas sous la forme d’une pré-pro-insuline constituée d’une seule chaîne peptidique, dont un fragment, le peptide signal (23 acides aminés à l’extrémité N-terminale) est éliminé : on obtient la pro-insuline qui subit l’élimination du peptide C (découvert en 1967) pour devenir l’insuline (forme active).

Le peptide C est un peptide (polymère d’acide aminés) de connexion. La différence entre peptide et protéine provient du fait que les peptides ne subissent ni repliement protéique, ni modification post-traductionnelle.

La proinsuline a une structure très voisine de celle des deux principaux facteurs de croissance, IGF-1 et IGF-2, et des concentrations élevées de ces hormones permettent des effets biologiques par signalisation après liaison aux récepteurs similaires : hypoglycémie lors de sécrétion massive d’IGF-1 et d’IGF-2 par des tumeurs.

L’insuline agit en se liant à des récepteurs à l’insuline, principalement situés au niveau du foie, ce qui déclenche la glycogénogenèse, et abaisse ainsi la glycémie.

Le récepteur à l’insuline est un récepteur tyrosine kinase. C’est un homodimère (association de deux chaînes polypeptidiques identiques). Lorsque le ligand (l’insuline !) se fixe sur son récepteur, celui-ci s’autodimérise (par des interactions secondaires, il y a une association de deux mêmes protéines bitopiques de type I). Du côté intracellulaire, ceci provoque l’autophosphorylation croisée du récepteur (ou transphosphorylation). Sous forme homodimérique, le récepteur se phosphoryle de part et d’autre sur ses deux sous-unités, par modification conformationnelle successive et ce, exclusivement sur ses résidus tyrosine issus de domaines qui en sont riches. Pour chaque résidu tyrosine phosphorylé, il y a une molécule d’ATP consommée. Cette phosphorylation permet d’une part d’accroître l’activité enzymatique du récepteur sur son site catalytique (qui n’a pas de relation directe avec la transduction du signal) et d’autre part, de libérer des sites à haute affinité pour des protéines de signalisation : des enzymes ou bien des protéines adaptatrices. Le signal de transduction prolifère par l’interaction du site d’affinité du récepteur et des protéines qui s’y associent.

La voie de transduction du récepteur à l’insuline est extrêmement complexe, mais très bien connue. Voir un cours de l’Université Pierre et Marie Curie (Paris) : http://www.chups.jussieu.fr/polys/biochimie/MIbioch/POLY.Chp.4.2.html

Récepteur à l’insuline (cliquer pour agrandir).

Le glucose sanguin filtre à travers le capillaire dans la lymphe interstitielle qui baigne les cellules β des îlots de Langerhans. La concentration de glucose autour des cellules β est donc la même que dans le sang. La cellule importe le glucose par un transporteur non saturable GLUT2 (les autres cellules du corps ont un récepteur rapidement saturé). La concentration de glucose intracellulaire reflète donc celle du sang. L’entrée du glucose dans la cellule bêta est immédiatement suivie de sa phosphorylation par une hexokinase spécifique, la glucokinase, dont les caractéristiques cinétiques jouent un rôle important dans le couplage glycémie/insulinosécrétion (la perte de 50 % de l’activité de la glucokinase est la cause d’une forme particulière de diabète, le MODY-2). Le métabolisme du glucose dans la cellule β augmente le rapport ATP/ADP. Cela induit la fermeture d’un canal potassique sensible à cette augmentation de la quantité d’ATP. Si les ions potassium cessent de sortir cela dépolarise la cellule β qui est une cellule excitable, puisqu’elle a une activité électrique dès que les concentrations en glucose extracellulaire dépassent 5 mmol/L. Cette dépolarisation ouvre des canaux calciques sensibles au voltage : le calcium entre dans la cellule et déclenche l’exocytose des vésicules contenant de l’insuline.

L’insuline recombinante : une révolution

La première insuline synthétique est produite simultanément dans le laboratoire de Panayotis Katsoyannis à l’Université de Pittsburgh, et par Helmut Zahn à l’Université RWTH d’Aix-la-Chapelle en 1965. Elle l’est cependant en très faible quantité.

En 1978, le génie génétique prend son envol : Herbert Boyer parvient à transférer le gène de l’insuline humaine dans l’ADN d’Escherichia coli. C’est l’une des premières transfections réalisées avec succès, et Boyer cofonde avec Robert A. Swanson la société Genentech, première entreprise de biotechnologies. En 2009, elle est vendue 47 milliards de dollars à Roche, tant l’insuline recombinante a révolutionné le traitement du diabète. En effet, l’insuline animale, principalement issue de porc, n’est pas exactement la même que l’insuline humaine : elle n’est donc pas aussi efficace, et demande de sacrifier des millions de porcs pour pourvoir à la demande.

En 1960, Yalow et Berson découvrent la méthode radio-immunologique pour le dosage de l’insuline et démontrent que les impuretés étaient responsables des réactions allergiques et de la formation d’anticorps contre l’insuline.

En 1970, l’élimination de ces impuretés donne des insulines purifiées, appelées Monopic ou Monocomposées.

En 1982, Eli Lilly and Company, en partenariat avec Genentech, met sur le marché la première insuline réalisée par biosynthèse, sous le nom de marque Humulin.

Jusqu’à ce que des bactéries synthétisent l’insuline en grande quantité, des patients mouraient encore d’hyperglycémie ; aujourd’hui l’hyperglycémie associée au diabète n’est, toutes proportions gardées, plus un problème en soi : ce sont les complications qui sont les plus préoccupantes.

De nos jours, l’insuline est produite dans des bioréacteurs comme celui-ci grâce à des OGM.

En 1990, des analogues synthétiques de l’insuline à action prolongée voient le jour.

Glucomètre et injection d’insuline

Etant donné la recrudescence du diabète insulinodépendant, il devint impossible de procéder à l’injection d’insuline en milieu médicalisé.

En 1961, Becton-Dickinson met sur le marché la seringue à usage unique, destinée aux diabétiques.

En 1966, Holdrege, basée au Nebraska, ouvre la plus grande usine de seringues à insuline dans le monde.

En 1979, le système Derma-Ject est mis sur le marché. Développé par The Derata Corporation, il ne comporte pas d’aiguille.

En 1985, le stylo Novopen, développé par Novo Nordisk, est disponible.

Ici dans ses versions pour enfant, le stylo Novopen contient de l’insuline.

En 2000, le lecteur portable de glycémie fait son apparition : il suffit de se piquer le bout du doigt et de lire sa glycémie. Il a depuis été perfectionné…

Le lecteur de glycémie Beurer est un lecteur de dernière génération : il comporte une interface USB et est muni d’un logiciel de suivi de la glycémie.

En fait, le lecteur de glycémie date du début des années 1980, mais il s’agissait au départ d’un procédé colorimétrique assez long, qui consistait à déposer une goutte de sang sur une bandelette, rincer la bandelette avant réaction du sucre avec un composé réducteur générant un composé coloré… Le principe n’est pas grandement différent de celui du papier pH, bien moins pratique et précis qu’un pH-mètre, d’autant que Glucometer – c’est le nom du premier appareil – devait être étalonné.

Le diabète nécessite un suivi autonome continu.

La pompe à insuline

La pompe à insuline est un dispositif de délivrance d’insuline à débit variable. Elle s’utilise dans les cas de diabète les plus sévères nécessitant une délivrance continue d’insuline.

La pompe à insuline est un dispositif électronique assurant automatiquement la perfusion en insuline.

Traitements classiques

L’innovation véritable dans le traitement du diabète provient de la conception de médicaments dits sécrétaguogues : plutôt qu’injecter de l’insuline, ne pourrait-on pas forcer le pancréas à en sécréter ?

En 1942, Marcel Janbon découvre l’action antiinfectieuse des sulfamides. Néanmoins, ceux-ci provoquent une hypoglycémie majeure : certains patients tombent même dans le coma. Auguste Loubatières, physiologiste, vérifie expérimentalement la baisse prolongée de la glycémie. Il démontre qu’avec une action dose-dépendante les sulfamides stimulent la sécrétion d’insuline.

Voici ce qu’il écrit : « A notre avis, le para-amino-benzène-sulfamido-isopylthiodiazol (2254 RP) est un corps essentiellement insulino-sécréteur ; action directe sur les îlots de Langerhans ».

Lire l’histoire complète de la découverte des sulfamides hypoglycémiants ici : http://www.biusante.parisdescartes.fr/sfhm/hsm/HSMx1985x019x001/HSMx1985x019x001x0055.pdf

Les sulfamides ont longtemps été les seuls médicaments disponibles, complémentaires de l’insulinothérapie. De nos jours, les méglitinides, les analogues du GLP1, ainsi que les inhibiteurs du DPP4 sont des médicaments antidiabétiques courants favorisant la sécrétion d’insuline.

Les glinides, dont le chef de file est le répaglinide, mis sur le marché en 1998, renforcent la réponse insulinique lors des repas, en agissant de façon semblable aux sulfamides.

Nouveaux traitements

Le GLP-1 (Glucagon Like Peptide 1), ainsi que GIP sont des hormones gastro-intestinales favorisant la sécrétion d’insuline lorsque la glycémie est trop élevée : on les appelles incrétines. Récemment, leur étude permit la conception des incrétinomimétiques, telles l’exénatide, analogue du GLP-1.

Séquence de l’exénatide, une protéine.

En 1992, le Docteur John Eng isole l’exendine-4 dans la salive du monstre de Gila. L’exénatide est un peptide de 39 acides aminés, analogue synthétique de l’exendine-4. Le liraglutide est une substance voisine.

La salive du monstre de Gila (Heloderma suspectum) contient l’exendine-4.

En plus de son action incrétinomimétique, l’exénatide diminue le taux sanguin de ghréline, hormone stimulant l’appétit, ce qui est souhaitable dans le diabète.

Or, l’enzyme dipeptidyl-peptidase 4 (DPP4) dégrade rapidement les incrétines ; d’où la conception d’inhibiteurs de la DPP4, encore appelés gliptines (sitagliptine, vildagliptine, saxagliptine).

D’autres médicaments potentialisent l’action de l’insuline. C’est le cas de la metformine et des thiazolidinediones. Sans oublier les biguanides…

Galega officinalis est une plante utilisée dans la médecine traditionnelle depuis des siècles. Ses graines contiennent un alcaloïde, la galégine, découvert par Charles Tanret en 1914. L’oxydation de la guanine mène à la guanidine, composé cristallin actif dans le traitement du diabète, mais retiré du marché dès 1932 en raison de son hépatotoxicité (c’est un agent chaotropique : elle dénature les protéines et l’ADN !)

m Fleur de Galéga officinal.

Les synthalines A et B ont également été reléguées avec le développement de l’insuline.

Guanidine

Formule topologique de la guanidine.

La metformine a été décrite en 1922 par Emil Werner et James Bell : il s’agit de diméthylguanidine, preuve qu’il ne faut pas jeter un médicament aux oubliettes trop vite…

La phenformine est retirée du marché en 1978 pour risque d’acidose métabolique, mais la metformine est toujours le pilier de la prise en charge du diabète de type II. C’est un médicament normoglycémiant, c’est-à-dire qu’elle agit sur la sensibilité des tissus à l’insuline. Son mécanisme d’action n’est pas encore totalement élucidé…

Les inhibiteurs des alpha-glucosidases agissent en diminuant l’absorption intestinale de sucres.

Les thiazolidinediones, encore appelées glitazones, sont les médicaments les plus récents. Ils agissent par liaison aux récepteurs activés par les proliférateurs de peroxysomes, récepteurs nucléaires et jouent également sur la sensibilité tissulaire à l’insuline. Leur développement remonte au début des années 1980, par les Japonais Hiroshi Imoto (laboratoire pharmaceutique Takeda d’Osaka) et Takashi Sohda (Université de Fukuoka). A noter que trois de ces médicaments ont été retirés du marché : le rosiglitazone est cardiotoxique, le troglitazone hépatotoxique, et le pioglitazone a été suspendu en 2011 pour suspection de cystotoxicité.

NB : cette liste d’antidiabétiques oraux n’est pas exhaustive.

Mode d’action des incrétines

Les incrétines font intervenir des récepteurs couplés aux protéines G. La voie de transduction du signal est semblable à celle des récepteurs muscariniques, aux prostaglandines et leucotriènes : à savoir fixation du ligand => activation de la protéine G => activation de l’adénylate cyclase ou de la phospholipase C.  Une cascade de réactions est alors déclenchée, en particulier la conversion d’AMP cyclique en ATP conduit à l’activation de la phosphokinase A, mais aussi le diacylglycérol (DAG) conduit à l’activation de la phosphokinase C, et l’ionositol triphosphate (IP 3) induit en se fixant sur la membrane du réticulum endoplasmique la libération d’ions calcium dans le cytosol.

L’ionositol triphosphate et et le diacylglycérol proviennent du clivage du phosphatidylinositol en réaction à la stimulation hormonale.

La voie de transduction des incrétines fait intervenir les beta-arrestine 1 et 2, très étudiées de nos jours.

Cette étape complexe passe par un premier changement de conformation des beta-arrestines qui adoptent une conformation ouverte « active » en se liant aux RCPG à la membrane plasmique. Lors de ce changement de conformation, la région C-terminale est libérée des domaines globulaires démasquant ainsi des sites de liaison à la clathrine et au complexe AP-2 qui permettent l’adressage des complexes beta-arrestine/RCPG.

Vers le pancréas artificiel

Les recherches actuelles, en dehors de la greffe d’îlots de Langerhans, se concentrent sur la conception d’un pancréas artificiel. L’idée est de mimer le servomécanisme à l’œuvre dans la régulation naturelle de la glycémie. En effet, les cellules bêta des îlots de Langerhans se composent d’une partie réceptrice (analysant la glycémie) et d’une partie effectrice (produisant l’insuline en fonction de la glycémie). L’enjeu est d’adapter cette rétro-action au sein d’une puce à insuline.

Voir l’interview d’Alain Ducardonnet, diabétologue au CHU de Montpellier : http://videos.tf1.fr/infos/lci-sante/pancreas-artificiel-un-grand-espoir-pour-les-diabetiques-6819049.html

Îlots de Langerhans colorés à la dithizone après transplantation.

La greffe d’îlots est réussie par James Shapiro en 2000

En plus de l’insuline (cellules beta) et du glucagon (cellules alpha), le pancréas endocrine sécrète la somatostatine (cellules delta), ainsi que le polypeptide pancréatique (cellules F).

Il se passe donc plein de choses dans les îlots de Langerhans ! La découverte de ces hormones dans le pancréas a été rendue possible par l’immunofluorescence, technique de marquage utilisant des anticorps couplés à des fluorochromes. En effet, ces hormones-ci étant noyées dans la masse d’insuline et de glucagon, les colorations de routine ne permettent pas de les détecter.

Or la somatostatine pancréatique permet, en outre, de moduler la sécrétion d’insuline.

La compréhension parfaite du fonctionnement des îlots de Langerhans est nécessaire pour mettre au point des traitements antidiabétiques novateurs, ou (plus vraissemblablement ?) pour palier à un pancréas défaillant par un implant.

Cyborgs et autres joyeuseries

Le terme cyborg est une contraction, en anglais, d’organisme cybernétique. Il désigne des êtres de science-fiction à la fois électroniques et biologiques, c’est-à-dire axée sur la biochimie telle que nous la connaissons. Si les implants artificiels commencent à faire leurs preuves (la rétine électronique est très prometteuse dans le traitement de la cécité), des êtres vivants d’un genre nouveau pourraient pulluler sur des planètes lointaines…

Mi-robot, mi Homme, les cyborgs foisonnent dans les univers de science-fiction.

La vie au silicium

Et si la vie n’avait pas besoin d’être… vivante ! En particulier, le carbone est à la base de la vie, à cause de la réactivité chimique procurée par sa tétravalence (quatre électrons engageables dans des liaisons simples), mais le silicium, composant des systèmes informatiques (d’où le technopôle Silicon Valley en Californie), est également tétravalent !

Durant des lustres, les biologistes ont érigé en principe la vie fondée sur le carbone, mais l’hypothèse d’une vie au silicium n’est désormais plus écartée. Elle fait sérieusement partie des biochimies hypothétiques, et Dieu sait à quoi ressembleraient des êtres en silicium ! Bien entendu, nous ne pouvons en dire grand chose…

Vue d’artiste d’un « insecte » en silicium. Longtemps fustigée, la vie au silicium jouit dorénavant d’un certain crédit auprès des exobiologistes.

Seul bémol, l’équivalent du dioxyde de carbone, la silice, est solide. S’il s’agissait d’un déchet extraterrestre, l’excrétion ne se ferait pas par l’ostiole des végétaux ou les poumons/branchies/stigmates des animaux, mais bel et bien par des excréments. Nos amis en silicium défèqueraient sans cesse ; cela dit leurs fèces (je n’ai pas dit fesses !), si elles ne contenaient que ça, ne seraient pas sales… Sur Terre, certains lézards excrètent d’ailleurs l’urée, produit de décomposition de l’ammoniac issu du métabolisme, non pas en urinant, mais par les narines. On peut imaginer une vie au silicium excrétant la silice par la pousse de phanères siliceux (cheveux, sabots, écailles, ongles, toile d’araignée…), de même que certains insectes sécrètent des liquides gluants, ou des plantes diverses résines. A noter que les diatomées, sorte de phytoplancton, ne font pas qu’incorporer le calcium sous forme de calcaire (carbonate de calcium) ; elles utilisent le silicium dans leurs coquilles.

Il est difficile de trancher plutôt en faveur, ou non, de la vie au silicium car sur la multitude de composés découverts dans l’espace, bien plus contiennent du carbone que du silicium. Pourtant, la Terre, et d’autres planètes telluriques, sont relativement pauvres en carbone (abondance relative au silicium de 925/1). Certains pensent que si le carbone, bien que rare en comparaison des autres éléments, forme la charpente de la vie terrestre contrairement au silicium bien plus abondant, c’est que le silicium n’est pas des plus appropriés pour former une biochimie sur les planètes telluriques.

Vies exotiques

Car rappelons que le célèbre physicien Carl Sagan (auteur du best-seller Contact) a imaginé la vie sur des planètes gazeuses, telle Jupiter. Ces formes de vie tout-à-fait hypothétiques puiseraient, par exemple, leur énergie dans les orages qui déchirent ces planètes inhospitalières.

Vue d’artiste d’un organisme jovien ressemblant à une méduse volante. Le sac d’air chaud assure, telle une montgolfière, la sustentation dans l’atmosphère gazeuse.

A moins que les Joviens ne ressemblent à cela !

« La vie trouve toujours un chemin », telle est une phrase de Jurassic Park, due à Michael Chrichton. Récemment, la découverte d’une bactérie pouvant incorporer l’arsenic à la place du phosphore dans son ADN a fait grand bruit. La vie, finalement, a de la ressource, mais on ignore précisément quels sont ses desiderata les plus basiques. Selon de récentes recherches, la physique quantique interviendrait dans la biologie : tant la photosynthèse que l’olfaction (nous serions munis d’un microscope à effet tunnel au fond du nez, c’est ce qu’ont découvert des chercheurs ayant remarqué qu’on peut percevoir différents isotopes !) relèveraient de la délocalisation quantique d’électrons. L’hypothèse plus controversée selon laquelle l’intelligence dépend également de la physique (voir esprit quantique), n’est, sans être scientifique, pas si farfelue qu’elle y paraît à première vue : les microtubules, éléments de la charpente cellulaire, auraient leur mot à dire en transmettant la superposition quantique à différentes parties du cerveau, qui, on le sait, est sensible à l’électromagnétisme (ondes cérébrales), donc pourquoi pas à des stimulus quantiques (sachant que les expériences d’ablation de parties du cerveau ont montré que la conscience est délocalisée, tout comme les objets quantiques, d’ici à y voir une conjonction…). Les philosophes arguent qu’aucune physique ne peut décrire la qualia, ou conscience phénoménale, connue pour être le problème difficile de la conscience. D’autant que les tenants de l’esprit quantique spéculent que les canaux ioniques traiteraient l’information comme un ordinateur quantique.

Ladite théorie subit un revers majeur en 2009 avec une étude montrant l’impossibilité de formation de condensats de Bose-Einstein (structures quantiques) dans le cerveau. Si, telle qu’elle est formulée, la théorie de l’esprit quantique paraît insensée, l’ordinateur quantique, un des graals de la recherche en physique, aurait, grâce à la superposition quantique des bits, des possibilités de traitement de l’information incomparablement plus élevées que les ordinateurs actuels. L’ordinateur quantique ouvrirait sûrement la voie à l’intelligence artificielle, qui n’en est qu’à ses balbutiements, donc imaginer que le cerveau fonctionne sur le même principe qu’un ordinateur quantique n’est pas si fou, d’autant qu’il semblerait que ce soit le cas pour la photosynthèse (voir ce lien). D’ici à imaginer des cyborgs nous gouvernant comme dans les blockbusters hollywoodiens, c’est une autre histoire…

Ce robot-là ne nous veut pas que du bien ! Le film I, Robot est tiré de la saga éponyme du plus grand écrivain de science-fictions de tous les temps (reconnu), Isaac Asimov. Will Smith joue Del Spooner, luttant contre un robot démoniaque, aux prises avec les trois lois de la robotique.

Démonstration de l’équation de Nernst

Tout changement est conduit par des changements d’énergie. A part peut-être dans la pensée, encore qu’il s’agisse de fluctuations énergétiques au niveau des canaux ioniques, régis par l’équation de Nernst et celle de Goldman-Hodgkin-Katz. Justement, l’équation de Nernst est celle à qui nous devons notre vie à l’heure actuelle : en vertu de cette équation, l’asymétrie de composition ionique entre l’intérieur et l’extérieur de nos cellules est à l’origine d’une différence de potentiel : c’est le potentiel électrochimique de membrane. Celui-ci est universel chez les êtres vivants et sa modification permet un potentiel d’action, c’est-à-dire n’importe quelle afférence ou efférence sensitivo-motrice (qu’il s’agisse de voir, penser ou de bouger le bras), les neurones jouant notamment le rôle de fil électrique (elles en assurent la conduction). Chez nous, ce potentiel de repos est principalement du au sodium, au potassium et au chlore, les ions Na+ et Cl siégeant majoritairement à l’extérieur des cellules, tandis que K+ se trouve en majorité à l’intérieur.

Schéma d’un neurone : le potentiel d’action naît au niveau du cône d’émergence de l’axone (on l’appelle zone gâchette).

Cette asymétrie elle-même est due à l’effet Gibbs-Donnan : une membrane semi-perméable, telle la membrane plasmique, a tendance a générer une asymétrie de composition ionique pour la bonne raison que l’électroneutralité doit se faire, or les cellules produisent des protéines, trop grosses pour traverser la membrane plasmiques. Elles s’accumulent à l’intérieur ; or certaines sont chargées négativement (protéinate), en conséquence de quoi l’équilibre physico-chimique est perturbé…

Mais tant l’équation de Nernst est primordiale, je vous propose que nous la démontrions !

La démonstration

Le prérequis est la compréhension parfaite du phénomène d’oxydoréduction : un transfert d’électrons entre un oxydant et un réducteur.

Dans une réaction électrochimique, le déplacement de particules chargées a pour conséquence une différence de potentiel, notée ΔE. Le travail électrique W (en joules) est le produit de la charge q (en coulombs) et du potentiel ΔE (en volts) :

W = q × ΔE

D’après la thermodynamique et ce qui précède, la variation réactionnelle d’enthalpie libre, ΔrG, est :

ΔrG = −W = −q × ΔE

Dans une réaction électrochimique (oxydoréduction), la charge électrique mise en jeu (q) est liée au nombre d’électrons transférés par acte élémentaire (n). Sachant que chaque mole d’électrons a une charge électrique de 96485 C (constante de Faraday, F) :

q = n × F

Ainsi,

ΔrG = −n × F × ΔE

ou, à l’état standard (symbolisé par °) :

ΔrG° = −n × F × ΔE0

Prenons la réaction suivante :

aA + bB = cC + dD

Comme toute réaction d’oxydoréduction, elle est une combinaison linéaire de deux demi-équations, et la constante d’équilibre s’écrit :

Figure indiquant la constante d'équilibre K  = ([C]^c[D]^d)/([A]^a[B]^b)

Toujours d’après la thermodynamique,

ΔrG = ΔrG° + RT × ln K

ou encore, en remplaçant par ce qu’on a trouvé :

−n × F × ΔE = −n × F × ΔE° + RT × ln K

avec R la constante des gaz parfaits et T la température (en kelvins). En réécrivant la formule, on obtient :

Figure indiquant la formule  E = E sup 0 - RT/nF multiplié par ln( ([C]^c[D]^d)/([A]^a[B]^b))

… et voici la formule de Nernst !

Attention cependant : E (respectivement E°) est la force électromotrice (respectivement la force électromotrice standard) d’une pile redox, définie comme la différence : E(Couple dont l’élément gagne des électrons) – E(Couple dont l’élément perd des électrons), chacun des termes étant obtenue séparément par l’équation de Nernst s’appliquant à la demi-réaction.

Pour les puristes, l’équation de Nernst s’appliquant en biologie cellulaire est légèrement différente de celle-ci, au sens où les potentiels en question ne sont pas des potentiels d’oxydoréduction (encore appelés potentiels d’électrode) mais des potentiels électrochimiques. Pour comprendre la distinction, il faut faire appel au potentiel chimique (enthalpie libre molaire partielle, c’est-à-dire dérivée partielle de l’enthalpie libre du système par rapport à la quantité de matière d’un constituant) : lorsqu’une espèce chimique est présente dans deux phases, à l’équilibre les potentiels chimiques dans chacune des phases sont égaux. Or, une membrane empêche l’égalisation des potentiels chimiques de certaines espèces, en l’occurrence entre l’intérieur et l’extérieur de la cellule. Ce phénomène est d’autant plus important qu’il s’agit d’espèces chargées (ions), d’où l’apparition d’une différence de potentiel électrique. Finalement, il y a différence de potentiel électrochimique !

Le transport actif, c’est-à-dire nécessitant de l’énergie (ne relevant pas de la diffusion régie par la loi de Fick) intervient aussi au niveau de la membrane plasmique, accentuant ou atténuant le phénomène selon qu’un stimulus excitateur ou inhibiteur est véhiculé (voir les canaux ioniques et la pompe sodium-potassium).

Voilà donc ! Maintenant, vous savez pourquoi vous clignez des yeux 😀 Et plus si affinités…

Pour aller plus loin

Il est à noter que l’équation de Nernst est un cas particulier de celle de Goldmann-Hodgkin-Katz (dans le cas d’un seul ion en solution) :

E_{m} = \frac{RT}{F} \ln{ \left( \frac{ \sum_{i}^{N} P_{M^{+}_{i}}[M^{+}_{i}]_\mathrm{out} + \sum_{j}^{M} P_{A^{-}_{j}}[A^{-}_{j}]_\mathrm{in}}{ \sum_{i}^{N} P_{M^{+}_{i}}[M^{+}_{i}]_\mathrm{in} + \sum_{j}^{M} P_{A^{-}_{j}}[A^{-}_{j}]_\mathrm{out}} \right) }

Ici, E est la différence de potentiel. Voici son expression biologique, eu égard aux ions sodium, chlorure, et potassium :

E_m = \frac{RT}{F} \ln{ \left( \frac{ P_{Na^{+}}[Na^{+}]_{ext} + P_{K^{+}}[K^{+}]_{ext} + P_{Cl^{-}}[Cl^{-}]_{int} }{ P_{Na^{+}}[Na^{+}]_{int} + P_{K^{+}}[K^{+}]_{int} + P_{Cl^{-}}[Cl^{-}]_{ext} } \right) }

En considérant que seul le sodium intervient dans la différence de potentiel, on a :

E_{m,Na} = \frac{RT}{F} \ln{ \left( \frac{ P_{Na^{+}}[Na^{+}]_\mathrm{out}}{ P_{Na^{+}}[Na^{+}]_\mathrm{in}} \right) }=\frac{RT}{F} \ln{ \left( \frac{ [Na^{+}]_\mathrm{out}}{ [Na^{+}]_\mathrm{in}} \right) }

L’équation de Nernst-Planck, elle, est une variante de la loi de Fick (diffusion due à un gradient de concentration), qu’elle généralise en présence d’un gradient de potentiel (c’est-à-dire un champ électrique).

\frac{\partial c}{\partial t} = \nabla \cdot \left[ D \nabla c - u c + \frac{Dze}{k_B T}c(\nabla \phi+\frac{\partial \mathbf A}{\partial t}) \right]

Où c est la concentration, t le temps, z la valence de l’ion et ∇ (nabla) l’opérateur gradient. Intervient la constante de Boltzmann !

En fait, le gradient de potentiel découle du gradient de concentration ; n’entrent toutefois en lignent de compte que les espèces osmotiquement actives !

La différence de potentiel transmembranaire est bien due à une différence d’osmolarité (moles de soluté non perméantes) : si du côté 1 on a une osmolarité sodique de 100 mosmol/L, et que du côté 2 l’osmolarité sodique vaut 10 mosmol/l, il existe un gradient de concentration (dirigé du côté 2 vers le côté 1). La diffusion se fait à l’inverse du gradient de concentration ; or en présence d’une membrane semi-perméable, point de diffusion ! C’est pourquoi il s’établit une pression osmotique du compartiment 2 vers le compartiment 1, tendant à diluer le compartiment 1, plus riche en sodium, par flux d’eau (via les aquaporines). La concentration du 1 s’abaisse ainsi, égalant le 2…

Nos compartiments n’en demeurent pas moins électrisés… Le côté 1 sera considéré comme positif, car comparé au côté 2 il y aura plus d’ions positifs (ici Na+). D’où la formation du gradient de potentiel avec le côté 1 dit positif et le côté 2 dit négatif !

En réalité, la relation de Donnan vise à rétablir l’électroneutralité rendue impossible par diffusion totale (c’est-à-dire de chaque espèce chimique) en établissant un répartition asymétrique des charges (d’où la ddp). Ainsi, à l’équilibre, la somme des concentrations en cations doit égaler celle des concentrations en anions, mais de surcroît, dès qu’il y a membrane semi-perméable, le produit des concentrations en espèces perméantes d’un compartiment doit égaler le même produit dans l’autre compartiment, soit (en appelant R l’espèce qui ne diffuse pas, car il s’agit d’un macro-ion) :

le compartiment 1, riche en macro-ions protéinates (R1) est l’intérieur d’une cellule et le 2 l’extérieur.

R1+ Cl1=Na+1

Na+2=Cl2

Cl1*Na+1=Cl2*Na+2

La résolution de ce système conduit à une asymétrie de concentration des espèces perméantes de part et d’autre de la membrane : plus de chlore et plus de sodium d’un côté : l’équilibre est en fait un déséquilibre ! Dieu soit loué, cet équilibre « tordu » engendre un micro-courant électrique, auquel nous, et tous les êtres vivants, devons la vie. Vive la polarisation !

A température corporelle (37° C) prise en compte, l’équation devient :

E_{X} = 61.5 \ \mathrm{mV} \log{ \left( \frac{ [X^{+}]_\mathrm{out}}{ [X^{+}]_\mathrm{in}} \right) } = -61.5 \ \mathrm{mV} \log{ \left( \frac{ [X^{-}]_\mathrm{out}}{ [X^{-}]_\mathrm{in}} \right) }

Pour disposer d’une approximation convenable du potentiel cellulaire de repos, il suffit de s’intéresser au potassium, dont la perméabilité est bien supérieure à celles des autres ions (en raison de canaux potassiques souvent ouverts). A savoir que la concentration intracellulaire en potassium vaut 100 nM/m3 et extracellulaire 10 nM/m3 (le potassium est bien plus répandu dans les cellules que dans la lymphe interstielle !), les jeux sont vite faits… Le logarithme décimal de 100/10 vaut log(10)=1 : en première approximation, la différence de potentiel au repos est donc de -61.5 mV ! C’est assez proche des -70 mV mesurables, la différence étant due à l’influence des autres ions et à l’approximation dans les concentrations en potassium (la réalité se rapproche de 160 pour 4 plutôt que 100 pour 10 !). En matière de calcul électrophysiologique, gare aux pièges entre litres et mètres-cube, un facteur 1000 intervenant : un mètre-cube d’eau équivaut à mille litres…

Du à la forte tendance des ions potassium à sortir a membrane est polarisée : sa face interne est électronégative ; sa face externe est électropositive. Par conséquent, elle se modélise par un condensateur, où la membrane plasmique, isolant puisque constituées de lipides, joue le rôle de diélectrique :

La capacité de la membrane plasmique est de 12 pF (picofarads) environ.

La forte tendance des ions potassium à sortir de la cellule, conjuguée à la tendance des ions sodium à entrer (puisque c’est l’inverse pour eux : ils sont plus nombreux dehors que dedans) devrait conduire à une égalisation des concentrations, fort nuisible biologiquement… Fort heureusement, les pompes ioniques incluses dans la membrane veille à refouler les ions excédentaires. Ainsi la pompe sodium-potassium fait entrer trois ions potassium, contre 2 ions potassium qu’elle relargue à l’extérieur ; or son fonctionnement nécessite de l’énergie (sous forme d’ATP) : il est coûteux. La mort cellulaire se traduit universellement par l’annulation du potentiel de repos… Quant c’est le cœur qui lâche, ou plutôt ses cellules, c’est assez problématique ! Par manque d’approvisionnement en oxygène, les cellules cardiaques (myocytes) n’ont plus assez d’énergie pour maintenir une différence de potentiel nécessaire aux battements du muscle myocarde : c’est l’infarctus.

Mise en évidence de la pression osmotique

Versez un peu d’eau douce dans deux récipients identiques et transparents. Mettez une cuillère à café de sel dans un des récipients et marquez le d’un signe afin de le repérer (avec un marqueur par exemple). Mettez quelques raisins dans chacun des deux récipients et attendez 2 heures environ. Deux heures après on remarque que les raisins dans le récipient contenant du sel ont diminué de volume : l’eau du raisin est passée dans l’eau salée du verre. Par contre, dans le récipient ne contenant que de l’eau douce, les raisins ont gonflé.

Un exemple naturel est celui des poissons. Les poissons « boivent » en utilisant l’osmose entre l’eau de leur corps et l’eau dans laquelle ils nagent. Mais en fonction de l’eau dans laquelle ils vivent (douce ou salée), la pression osmotique n’est pas la même…

Et la pression osmotique de contribuer à la nutrition des organes (diffusion des nutriments !). En cas d’abaissement de cette pression (dite oncotique lorsqu’elle est due aux protéines), il y a œdème ! Or un œdème peut engager le pronostic vital…

Normalement, le système circulatoire permet l’échange d’eau et de nutriments entre le sang et les tissus à travers la paroi des vaisseaux, grâce à un équilibre subtil entre les forces de la pression hydrostatique (tendant à faire sortir les liquides hors du vaisseau) et celles de la pression oncotique (liée aux protéines, tendant à retenir les liquides à l’intérieur du vaisseau), s’effectuant en sens opposé. L’insuffisance cardiaque gauche provoque des anomalies de la circulation sanguine (débit, pression, vitesse, etc.), et le cœur défaillant ne peut assurer un débit suffisant pour couvrir, au repos ou à l’effort, les besoins de l’organisme. Le sang s’accumule alors dans la circulation pulmonaire, où il entraîne une augmentation de la pression dans les vaisseaux pulmonaires et une fuite du plasma vers les alvéoles pulmonaires. Ces dernières sont ainsi peu à peu inondées et l’oxygénation normale du sang par les poumons ne peut plus s’effectuer.

Un œdème pulmonaire est le plus souvent d’origine hémodynamique, lié à une augmentation des pressions dans la circulation pulmonaire. Celle-ci peut être due à un mauvais fonctionnement du cœur, à une poussée d’hypertension artérielle systémique, ou encore à une hypervolémie (augmentation du volume sanguin). Plus rarement, l’œdème pulmonaire peut être dû à une altération de la perméabilité des capillaires pulmonaires par des agents toxiques ou infectieux (virus de la grippe, certaines bactéries, ou bien à une hypoalbuminémie (faible teneur sanguine en albumine due à un défaut de synthèse hépatique ou à l’élimination rénale excessive) : dans ce cas la pression osmotique s’amoindrit, mettant en péril l’équilibre isoosmotique à la base de l’homéostasie (maintien du milieu intérieur), donc de la vie !

Qui ne voit guère de lien entre médecine, raisin dans l’eau salée, et thermodynamique s’y méprendrait !

Fabuleuses réactions oscillantes

Le bon sens veut qu’une réaction chimique se fasse, puis qu’on en entende (presque !) plus parler. Scientifiquement, on dit que l’équilibre chimique est atteint. Il n’en empêche que certaines réactions, dont la plus connue est celle de Belousov-Zhabotinsky sont oscillantes, c’est-à-dire que les concentrations en réactifs et produits… oscillent, bref varient du tout au tout en permanence. Lorsqu’un composé a une couleur, le changement perpétuel de couleur, dû au passage par un certain seuil de concentration, est assez inhabituel :

L’explication

La réaction peut continuer longtemps, très longtemps comme ça. L’explication du phénomène fait appel au modèle proie-prédateurs, généralement décrit par les équations de Lotka-Volterra. C’est très simple à comprendre : prenons des loups et des lapins, dans un même écosystème. Au fur et à mesure que les loups mangent les lapins, les loups restants n’ont plus rien à manger : ils meurent de faim. Du coup, le peu de lapins cachés dans leurs terriers peuvent prospérer à nouveau (se reproduire), jusqu’au stade où, assez nombreux, les loups restants retrouvent quelque chose à se mettre sous le dent, et ainsi de suite. Dans la nature, c’est ainsi qu’est instauré l’équilibre entre proies et prédateurs.

L’étude des systèmes chimiques oscillants n’est pas nouvelle, cependant ce n’est que récemment que l’on a pu les appréhender de manière satisfaisante :

En 1828, Fechner observe le changement périodique de l’aspect du fer plongé dans l’acide nitrique concentré : le métal est terne, puis brillant, puis terne de nouveau et ainsi de suite…

Schönbeim, en 1836, parle en ces termes : « un phénomène aussi étrange que celui-ci mérite assurément toute l’attention du chimiste ».

En 1834, Munck Af Rosenschöld constate que le phosphore émet des éclairs lumineux par intermittence avec une certaine régularité.

En 1874, Joubert montre que ce phénomène est dû à l’oxydation du phosphore par l’oxygène de l’air mais ne poursuit pas l’étude plus loin.

En 1896, Raphaël Liesegang en déposant une goutte de nitrate d’argent sur du bichromate de potassium dans la gélatine découvre qu’un précipité se dépose, sous formes d’anneaux concentriques appelés depuis anneaux de Liesegang.

Anneaux de Liesegang à Pénestin, en Bretagne. Ils sont dus à des réactions oscillantes au sein de la roche.

En 1906, Luther, en tentant de modéliser la propagation de l’influx nerveux au moyen d’une réaction dans un tube voit se développer des ondes chimiques.

En 1937, Arthur Arndt en étudiant l’agrégation des amibes s’aperçoit qu’elle se produit de manière désordonnée. Il observe plus précisément une agitation périodique sous forme d’un motif d’onde s’enroulant autour du centre d’agrégation.

Morphogènes

En 1952, Alan Turing, informaticien (et inventeur de l’ordinateur moderne), s’intéresse au phénomène : « On suggère qu’un système de substances chimiques, appelés morphogènes, réagissant entre elles et diffusant à travers un tissu peuvent expliquer le principal phénomène de la morphogenèse », écrit-il. Cette notion de morphogène est à la base de la biologie du développement, étant donné le rôle capital dans l’embryogenèse des substances chimiques dont la concentration fluctue et affectant certains motifs.

Les morphogènes, substances chimiques participant à des réactions auto-catalytiques génératrices de formes, doivent diffuser plus lentement que les autres substances chimiques ; par conséquent il existe un couplage entre la formation rapide de ces espèces et leur lente diffusion. Ce couplage aboutit spontanément à la formation de pics périodiques de concentration. Ces pics de concentration sont extrêmement importants durant l’embryogenèse, car ils spécifient la spécialisation des cellules et le devenir des tissus : tel endroit de l’embryon deviendra un bras, tel autre une jambe, tel autre encore un œil.

On peut citer la protéine Sonic Hedgehog, dont les travaux valurent à leur auteurs le Prix Nobel de médecine 1995, mais qui n’est pas moins importante que BMP4 ou Wnt dans la morphogenèse.

Dans le cadre de l’embryogenèse y compris, la séparation périodique entre deux pics dépend uniquement du phénomène de diffusion, et le mécanisme proposé par Turing permet d’observer plusieurs phénomènes : structures stationnaires, oscillations, ondes chimiques.

Les ondes chimiques ressemblent à cela. Elles présentent moins d’interférences que les autres ondes.

Cybernétique et chimie

En fait, les réactions oscillantes relèvent de la cybernétique, c’est-à-dire qu’une rétroaction tend à modérer un comportement s’écartant d’une valeur de consigne. Cette tendance se retrouve cependant dans toutes les réactions : c’est la loi de modération des équilibres de le Chatelier (lorsqu’une réaction a lieu spontanément dans les deux sens, le fait d’ajouter des produits tend à déplacer la réaction dans le sens qui les consomment : l’accumulation est ainsi évitée, ce qui est très important en biochimie lorsqu’il s’agit de produits toxiques).

Les lois de modération, phénomènes transversaux, décrivent des effets qui s’opposent à leurs causes, telle la loi de Lenz en électromagnétisme.

Il se trouve que la cybernétique, via les rétroactions hormonales, est prépondérante dans les systèmes vivants : elle est à base de l’homéostasie, ou maintien d’un milieu intérieur stable. En plus de phénomènes davantage complexes, des réactions oscillantes assureraient qu’il reste toujours certains éléments au sein des cellules. En effet, beaucoup de réactions chimiques ont tendance à ne pas revenir en arrière spontanément, c’est-à-dire qu’à moins de fournir de l’énergie (chez les êtres vivants par l’hydrolyse de l’ATP) la consommation totale d’un réactif est irréversible. Si la cellule ne peut le produire pour satisfaire à ses besoins, elle dépérit donc, sauf à compter sur un retour en arrière d’une réaction chimique, d’autant plus efficace s’il y a oscillations. C’est ce qui ce passerait pour les tubulines, constituants des microtubules (charpente cellulaire). Ce phénomène est abondamment étudié, car le dérèglement de ces réactions oscillantes pourrait être à l’origine de certains cancers (voir ce lien : http://www.jle.com/fr/revues/medecine/hma/e-docs/00/02/23/32/article.phtml)

Systèmes dissipatifs

Avec les réactions oscillantes, les chimistes ont mis la main sur le pot-aux-roses. C’est en effet un domaine qui n’en finit pas de livrer des secrets. Quel est en effet le rapport entre les réactions oscillantes, les bananes, les girafes, les zèbres, ou encore les léopards ?

Il a été démontré que les tâches du guépard, et les zébrures sont dues à des systèmes dissipatifs oscillants, c’est-à-dire des systèmes opérant loin de l’équilibre thermodynamique et changeant sans cesse.

Le pelage de la girafe est orné de tâches régulières, et des poissons, de même que certaines variétés de bananes en ont : c’est ce qu’on appelle la convergence évolutive.

La réaction CIMA

En 1989, Vincent Castets étudie à Bordeaux la réaction CIMA (Chlorite-Iodure alcalin-acide MAlonique). Il observe dans le réacteur-gel des fronts stationnaires analogue à ceux observés dans l’écoulement de Couette. Il était nécessaire qu’une brisure de symétrie se produise pour pouvoir apercevoir les structures prévues par Turing. A cause de la présence persistante d’une bulle dans le réacteur, De Kepper décida de l’agiter vivement et à sa grande surprise, il vit apparaître pour la première fois les structures dites de Turing, qui ont une allure cristalline hexagonale.

Or l’acide malonique est un produit d’oxydation du jus de pomme et de certaines betteraves. Bien qu’il soit un poison pour nous, des propriétés chimiques aussi intéressantes (aptitude à l’organisation structurale) laissent à penser que ce genre de composés a pu avoir un rôle dans l’origine de la vie.

La réaction de Briggs-Rauscher

En 1917, à Berkeley, William C. Bray et son étudiant A. L. Caulkins observent lors de la rencontre en solution aqueuse du couple diiode-iodate (I2/IO3) et de l’eau oxygénée H2O2 un dégagement d’oxygène irrégulier. Cependant le milieu scientifique de l’époque est dubitatif : on pensait alors que seul un milieu hétérogène pouvait être à l’origine de telles oscillations. Cette hésitation persista même après que Bray eut démontré que l’iodate était l’agent auto-catalytique !

En 1973, deux professeurs – de collège ! – Briggs et Rauscher, en cherchant un expérience de chimie amusante, eurent l’idée d’ajouter à la solution de l’amidon qui révèle la présence d’ions iodure I. Le mécanisme de cette réaction a été démontré par Noyes. Son fonctionnement ressemble à celui de nombreuses autres réactions encore étudiées aujourd’hui, dont la réaction CIMA utilisée par l’équipe de De Kepper pour découvrir les structures de Turing.

La réaction de Belousov-Zhabotinsky

Parlons-en de cette fameuse réaction ! C’est la plus connue des réactions oscillantes. Il s’agit d’une réaction chimique dont le mécanisme n’est pas linéaire (comprendre par là que les composés entrent un interaction dans tous les sens) et qui peut être décomposée en une quarantaine d’actes élémentaires (c’est beaucoup !) Elle fut découverte par un biologiste russe du nom de Belousov qui étudiait le cycle de Krebs. Le cycle de Krebs est un mécanisme biochimique complexe à intervenant dans les mitochondries, et à l’origine de la production d’énergie sous forme d’ATP (adénosine triphosphate). Belousov cherche à comprendre le rôle (primordial) de l’acide citrique, qui est oxydé dans ce cycle. Il pense le doser grâce au bromate de potassium KBrO3 mais la réaction est trop lente. Il ajoute donc du Ce4+ pour la catalyser, et constate alors que le milieu réactionnel change de couleur périodiquement. Il entreprend bien sûr une étude approfondie en faisant varier le pH de la solution et en ajoutant de la ferroïne (indicateur coloré d’oxydo-réduction à base de Fe2+). Cependant, toute ses publications sont refusées par des jurys hostiles à l’idée d’oscillations chimiques. Avant d’abandonner ses recherches, il publie toutefois une note dans un journal méconnu (Sbornik Referatov po Radiaconi Medecine), mais étant donné la guerre froide, pas grand monde à l’Ouest n’a vent de ses découvertes.

En 1961, un jeune biophysicien, A. Zhabotinsky, s’intéresse aux phénomènes oscillants dans les milieux biologiques. Il contacte alors Belousov qui lui indique les références de sa publication. En quelques mois, Zhabotinsky réussit à obtenir des oscillations et à montrer que l’acide citrique peut être substitué par l’acide malonique : c’est pourquoi il s’agit d’un poison. Il publie ses résultats dans Biophysika en 1962.

Voici la description de cette réaction, telle qu’on la trouve sur Internet :

Première phase :

Br + BrO3 + 2 H+ -> HBrO2 + HOBr

Br + HBrO2 + H+ -> 2 HOBr

Br + HOBr + H+ -> Br2 + H2O

Br2 + HOOCCH2COOH -> HOOCCHBrCOOH + Br + H+

L’acide bromique HBrO2 réagit avec une grande quantité de Br- (la concentration en Br- diminue). Ceci entraine la bromation de l’acide malonique (dernière étape)

Deuxième phase :

BrO3 + HBrO2 + H+ -> 2 Br O2 + H2O

BrO2 + Fe2+ + H+ -> Fe3+ + HBrO2

2 HBrO2 -> HOBr + BrO3 + H+

Du fait de la baisse de concentration en ions bromure Br, l’acide bromique ne peut plus réagir comme auparavant. Il forme donc, en se combinant avec le bromate BrO3, le radical BrO2 qui permet l’oxydation des ions Fe2+ en Fe3+

Troisième phase :

2 Fe3+ + HOOCCHBrCOOH + HOOCCH2COOH + 3 H2O -> 2 Br + 2 Fe2+ + 3 HOOCCHOHCOOH + 4 H+

Quand la concentration en Fe3+ commence à devenir importante, Fe3+ est alors réduit en Fe2+ avec production d’ions bromures Br. L’augmentation de leur concentration stoppe alors la progression de la deuxième phase en favorisant la première. Les ions bromure Br permettent alors d’initier un nouveau cycle.

Profil d’évolution des espèces : les vaguelettes sont typiques des réactions oscillantes.

Motifs chimiques

L’étude des réactions oscillantes est passionnante, dans la mesure où certaines réactions oscillantes génèrent des motifs. Les chercheurs notent une tendance à l’auto-organisation des systèmes dissipatifs, tels les cellules de Bénard, turbulences induites par la convection (cela ressemble à ce qu’il se passe quand on porte de l’eau à ébullition). Le dépôt de colorants, et de capteurs, dans de l’eau portée à ébullition montre que le phénomène comporte une part de hasard, mais reste pour autant prévisible : il est chaotique (c’est-à-dire relevant de la théorie du chaos), mais des attracteurs, graphes utilisés dans l’étude des systèmes dynamiques, peuvent modéliser son comportement.

Ilya Prigogine, Prix Nobel de chimie 1977, est connu pour sa présentation sur les structures dissipatives et l’auto-organisation des systèmes, qui ont changé les approches par rapport aux théories classiques basées sur l’entropie. Dans La Nouvelle Alliance. La métamorphose de la science, Prigogine développe la thèse suivante : la science classique considérait les phénomènes comme déterminés et réversibles, ce qui est en contradiction avec l’expérience courante. L’irréversibilité des phénomènes temporels caractéristique de la thermodynamique (non linéaire) réconcilie la physique avec le sens commun, tout en faisant date dans l’histoire de la thermodynamique.

Un document Powerpoint consacré à la génèse de rythmes et de formes par les réactions chimiques est à lire ici : www.labos.upmc.fr/lcmcp/files/livage/…/P.%20De%20Kepper.ppt

Il a aussi été montré qu’à partir d’un écoulement de Couette, c’est-à-dire un liquide compris entre deux cylindres tournant à deux vitesses différentes, l’introduction du mélange réactionnel de Belousov-Zhabotinsky provoque l’apparition de bandes parallèles de concentration homogène dues au couplage entre les réactions chimiques et les phénomènes de diffusion.

Récemment, le centre de recherche Paul Pascal à Bordeaux a étudié la propagation des ondes chimiques dans un anneau de gel. A l’aide d’une impulsion lumineuse,  les chercheurs ont déclenché la réaction en un point de l’anneau, ce qui générait deux ondes chimiques se propageant en sens contraire et qui s’annihilaient après un demi tour. Cependant s’il advenait que l’une des deux soit amortie, l’autre pouvait continuer et parcourir ainsi plusieurs tours. On a même pu observer des trains de douzes ondes de ce type. Ces ondes ont été nommées excyclons (non encore reconnu par l’IUPAC). Cliquer ici pour en savoir plus (en anglais).

Diminution de l’entropie ?

L’observation de motifs chimiques peut sembler contre-intuitive : a-t-on déjà vu un morceau de sucre dissous dans une tasse se reformer ou bien s’agréger sous forme de motifs particuliers ? Non ! Car l’entropie, fonction d’état thermodynamique assimilable au désordre, augmente.

Le second principe de la thermodynamique impose que l’entropie totale d’un système isolé (n’échangeant ni matière ni énergie avec l’extérieur) croisse au cours du temps. La création de motifs chimiques générant un certain ordre, on a tendance à penser que les réactions qui les produisent vont à l’encontre des lois de la thermodynamique. Il n’en est rien…

Toute diminution de l’entropie due aux oscillations périodiques ou à la création de formes est largement compensée par l’entropie crée par les autres réactions. De plus, l’auto-organisation du système, se traduisant par la création de formes, provoque une diminution importante de l’entropie qui peut être compensée par la dissipation d’entropie vers le milieu extérieur, si bien que l’entropie finale du système soit plus grande que l’entropie initiale. L’entropie étant liée à la chaleur, pour peu que le système ne soit pas isolé, une augmentation de chaleur est corrélée à une augmentation de l’entropie.

Du second principe, il découle également que l’enthalpie libre doit décroître lors de l’évolution spontanée d’un système chimique. Les études montrent que dans une réaction oscillante, l’enthalpie libre, partant d’un maximum, décroît relativement linéairement ; ce sont les concentrations qui fluctuent de manière sinusoïdale. Du fait de la baisse de l’enthalpie libre, jusqu’à devenir nulle, les réactions oscillantes finissent donc pas s’arrêter. Elles comportent également un équilibre, mais tout dépend de la cinétique réactionnelle : cela peut durer quelques secondes, comme des mois !

Le Bruxellateur

En 1967, à Bruxelles, R. Lefever en compagnie de I. Prigogine et G. Nicolis, après avoir étudié le modèle de Lotka et constaté l’insuffisance du modèle de Turing qui aboutissait parfois à des concentrations d’espèces chimiques négatives, chercha un mécanisme plus simple pour obtenir des oscillations. L’étape la plus déterminante de ses recherches fut d’ajouter une étape trimoléculaire dans son mécanisme. C’est ainsi que fut créé le Bruxellateur :

A -> X       (k1)

B + X -> Y + D       (k2)

2 X + Y -> 3 X       (k3)
réaction auto-catalytique

X -> E       (k4)

Ce modèle permet de démontrer que certaines réactions chimiques peuvent être à l’origine d’une auto-organisation du système. De plus, il est possible d’apercevoir des ondes chimiques et grâce à ce modèle apparaît un cycle limite pour le système.

Pour en savoir plus, voir un dossier de concours étudiant la cinétique et le mécanisme précis d’une réaction oscillante : http://www.scei-concours.fr/tipe/sujet_2003/exemple%20sujet%20de%20chimie%202003.pdf

A voir également, une excellente vidéo de Canal-U (videothèque numérique de l’Enseignement Supérieur) sur la morphogenèse chimique : http://www.canal-u.tv/video/universite_de_tous_les_savoirs/morphogeneses_chimiques_les_reactions_creatrices_de_rythmes_et_de_formes.1089

Le Bruxellateur, vu par l’Université Pierre et Marie Curie (Paris) : http://www.lmm.jussieu.fr/~hoepffner/enseignement/stab_exam2009.pdf

Le document stipule : « Seuls les systèmes chimiques dont les réactions possèdent des mécanismes cinétiques présentant des boucles de rétroaction peuvent donner naissance à des phénomènes d’auto-organisation temporelle ou spatiale à condition qu’il soit assez loin de l’état d’équilibre. Le  cas le plus simple de rétroaction est l’auto-catalyse, c’est-à-dire l’activation d’une réaction par l’un des produits qu’elle forme. » Or l’auto-catalyse est à la base du mécanisme biologique d’auto-épissage (maturation des ARN messagers par transestérification, conduisant à partir d’une même séquences d’ADN à différents transcrits), d’où la formidable utilité des réactions intégrant des rétro-actions : elles évoluent en fonction de leur environnement, et c’est une des caractéristiques majeures du vivant…

Un article de Pour la science évoque également le lien entre morphogènes imaginés par Turing (découverts depuis lors) et les tâches du léopard : http://www.pourlascience.fr/ewb_pages/a/actualite-quoi-servent-les-taches-du-leoparda-26019.php.

Voir une vidéo de l’Université Paris 7 Diderot : http://www.canal-u.tv/video/science_en_cours/reactions_oscillantes_1994.103

Tout savoir (ou presque !) sur les réactions oscillantes : http://www.faidherbe.org/site/cours/dupuis/jouport.htm

Principe d’incertitude

J’ai envie de faire une blague, mais si vous n’avez pas une certaine notion en physique, vous ne la comprendriez pas. Alors, en prenant ce prétexte, interrogeons-nous sur la question la plus fabuleuse qui soit (avec l’origine de la vie sûrement) : comment l’Univers a-t-il jailli à partir de rien ? Ou plutôt, sans même détailler le Big Bang, que s’est-il passé pour que le rien engendre la matière ?

Croire en la création ex nihilo n’est pas plus fou que croire en l’immaculée conception (au demeurant possible, c’est ce qu’on appelle la fécondation in vitro !), à ceci près que la création ex nihilo est désormais prouvée, et – je dirai – elle ne peut que l’être : si rien ne se créait… à partir de rien, nous ne serions pas là !

En effet, la sacro-sainte maxime fondatrice de la chimie, due à Lavoisier, veut que rien ne se crée mais tout se transforme. Valable en chimie, elle n’en demeure pas moins vérifiée en physique nucléaire : lors d’une désintégration radioactive, il se produit une joyeuse soupe de bosons, neutrinos, électrons, positons, anti-neutrinos (pour ne citer qu’eux), mais la quantité de quarks, constituants ultimes de la matière connus à ce jour, de même que celle des gluons (colle à quarks, plus rigoureusement bosons responsables de l’interaction forte), ne change pas : ils ne font que s’assembler autrement.

Pour autant, un jour, il y a fort longtemps, presque quatorze milliards d’années, il s’est créé beaucoup beaucoup de choses. Et encore, deux beaucoup c’est bien peu par rapport à cette Création (sans précédent ?), pour laquelle une anecdote raconte que les scientifiques se sont mis d’accord avec le pape : « vous c’est avant, nous c’est après ». Si le Big Bang plaît tant à l’Eglise, c’est qu’il évoque une Création, la Création même. On parle bien de la création de l’Univers et des particules fondamentales qui le composent (dont celles véhiculant les forces, nécessaires à la cohésion de la matière).

Sauf que… je me pose une question : toutes les équations du monde viennent-elles à bout du bon sens ? Au fond, comment quelque chose se crée à partir de rien ? Sans adhérer aux fariboles religieuses, je crois en la magie… car je crois en la science. Si la Création, à son stade ultime, s’explique bel et bien par une équation, cette équation est paradoxalement hyper simple à comprendre, de même que (grand mystère scientifique), les problèmes les plus difficiles sont les plus simples à énoncer (qu’il s’agisse du théorème des quatre couleurs, de Fermat, ou de la conjecture de Riemann, encore non démontrée à ce jour et pourtant explicable à un élève de Terminale, pour ne pas dire à quiconque a eu vent des nombres complexes).

Attelons-nous donc à comprendre non pas comment de l’épine naquit la rose, mais comment du vide naquit quelque chose. Si cela semble fou, dites-vous bien que si ce n’était pas le cas, nous ne serions pas là !

Ainsi donc, qu’est-ce que le vide ? Rien, totalement rien… ou presque. En fait, le vide total n’existe pas : le vide, aussi parfait soit-il, est soumis à ce que l’on appelle des fluctuations quantiques.

Fluctuations qu… ésako ?

Quantiques ! Les fluctuations quantiques du vide, fluctuations du niveau d’énergie en un point de l’espace, sont un fait scientifique, mis en évidence par l’effet Casimir, attraction entre deux plaques due à une certaine énergie du vide.

Ces fluctuations sont bien jolies, bien étranges surtout, mais il s’agit de savoir comment le vide peut engendrer quelque chose ! Cela tombe bien, on le sait, et le phénomène est aisé à comprendre, moyennant quelques notions basiques de physiques quantique…

La physique quantique, vedette en son genre

Grosso modo, la physique quantique est une branche de la physique (c’est même la star), qui est bourrée de phénomènes à la limite du paranormal : citons entres autres la téléportation et les chats morts-vivants, en raison du problème de la mesure, stipulant qu’une expérience n’est pas la même selon qu’on l’observe ou non. Vous l’aurez compris, la physique quantique a attrait a tout ce qui fera de nous une civilisation très avancée (au point de voyager vers les étoiles, espérons).

Si la physique quantique vit le jour, c’est que tout allait bien dans le ciel de la physique, jusqu’au jour où, selon l’expression de Lord Kelvin, il y eut un petit nuage concernant les corps noirs…

Ce qu’on appelle le rayonnement du corps noir fut à l’origine de la catastrophe ultraviolette. Les gens raillaient la physique : quand ils voyaient un physicien passer dans la rue, ils le sifflaient : « ouhou, le mauvais physicien, le corps noir rayonne et tu sais pas l’expliquer ! » Bon d’accord, j’exagère un peu : les gens n’en avaient que faire, mais la communauté scientifique était en émoi. Toute la physique mise à mal par un corps noir qui rayonne étrangement, vous pensez…

A l’origine des quantas : le rayonnement du corps noir

Il nous faut parler quantas, mais une parenthèse historique s’impose pour comprendre ce dont il s’agit. Qu’est-ce donc que ce rayonnement du corps noir ?
Un corps noir est un objet pas forcément noir (!) qui absorbe les ondes électromagnétiques (lumière, radio, UV, infrarouge…) venues de l’extérieur. C’est, approximativement, le cas des étoiles, ou encore d’un four. Justement, les physiciens se sont beaucoup amusés avec un four, entièrement opaque et fermé (seulement une petite ouverture pour étudier le rayonnement sortant).

Au début, quand le four est moyennement chaud, ce rayonnement sortant ne comporte que des infrarouges. Puis, au fur et à mesure que température augmente, on obtient de la lumière rouge, puis orange, puis bleue…

On s’intéresse à la luminance énergétique, flux d’énergie rayonné dans une certaine direction, dans un certain angle solide (un stéradian, le stéradian étant l’équivalent 3D du radian).

Chacune des radiations émises par le corps noir a sa propre luminance énergétique Lλ, qui dépend de sa longueur d’onde.

D’après la formule de Rayleigh-Jeans :
L_{\lambda} = \frac{2kcT}{\lambda^4}
avec :
– c : la vitesse de la lumière
– T : la température (en kelvins) du four
– k : la constante de Boltzmann (qui n’est autre que le rapport de la constante des gaz parfaits sur le nombre d’Avogadro)
L’ennui avec cette formule, c’est que plus λ est petit, plus Lλ augmente, et ce sans aucune limite : des rayons ultraviolets auraient donc une luminance énergétique colossale. C’est absurde !
Comment un corps noir pourrait-il rayonner une énergie pareille, bien plus grande que celle qu’on lui a fournie en chauffant ? L’expérience donne d’ailleurs un résultat différent, preuve que la théorie est fausse.
Le physicien Max Planck formula alors une nouvelle loi, en introduisant une nouvelle constante : h, comme Hilfe, aide en allemand. Cette constante ne tarda pas à prendre le nom de constante de Planck.
Pour une onde, un mode propre est une manière de vibrer. En ce qui concerne les ondes électromagnétiques, les résultats expérimentaux montrent que le nombre de modes propres possibles est beaucoup plus petit que ne le prévoient les théories en vogue en cette année 1900.
Planck comprend alors qu’il existe beaucoup moins de modes propres que prévu, parce que l’énergie d’une onde électromagnétique ne peut pas varier de manière continue, comme on le croyait. Cette énergie ne peut augmenter ou diminuer que par paliers, de même qu’un ascenseur ne s’arrête qu’aux étages, et pas entre.
Ces paliers, ou paquets d’énergie prennent le nom de quantum (quanta au singulier). Planck jeta un pavé dans la mare en montrant que toute variation d’énergie est obligatoirement un multiple entier de h*ν. En effet, la théorie ondulatoire de la lumière, communément admise à l’époque ne prévoit pas cette contrainte énergétique, et « paquet d’énergie », ça fait un peu particule ! Or plus personne à l’aube du vingtième siècle ne croit aux grains de lumière. Plus personne sauf… Albert Einstein, qui ne tardera pas à évoquer les photons, mais c’est une autre histoire !

Le principe d’incertitude

En 1927, le physicien Werner Heisenberg révolutionne la physique en proposant une théorie garnie d’équations, et appelé principe d’incertitudes. Pour comprendre ce dont il s’agit, prenons un thermomètre : lorsqu’on le trempe dans l’eau, l’appareil réchauffe légèrement le liquide. De même, lorsqu’on observe une particule, celle-ci reçoit une impulsion (diffusion Compton), en raison même des photons utilisés pour la scruter. Le principe d’incertitude énonce que toute mesure perturbe l’objet mesuré, donc il y a une limite ultime à la précision des mesures.

On vient de voir que la théorie des quanta implique une discrétisation de l’énergie. Par conséquent – et c’est fondamental – on ne peut pas échanger une quantité d’énergie inférieure à un quantum. Donc il y a une limite à la perturbation : elle ne peut pas être aussi faible que l’on veut. C’est aussi le principe d’incertitude, dans sa version simplifiée.

Dans la vie de tous les jours, on peut connaître la position d’une voiture et sa vitesse, mais dans le monde quantique, si on augmente la précision sur la position, on diminue la précision sur la vitesse. Or, il ne s’agit pas seulement d’un aléa expérimental, mais d’une propriété intrinsèque et inextricable de l’Univers. Outre ses implications en physique quantique, le principe d’incertitude véhicule un enseignement profond sur la nature des choses : il n’est pas possible d’imaginer un environnement expérimental permettant de définir position et vitesse de façon aussi précise que l’on veut, car position et vitesse appartiennent à des visions de l’Univers incompatibles. Ces grandeurs n’ont pas de sens en même temps : si la position est parfaitement définie, alors la vitesse est indéterminée, et vice-versa.
Du coup, le principe d’incertitude, associé aux attracteurs étranges de la théorie du chaos (à l’origine de l’effet papillon), a mis à mal le déterminisme, doctrine philosophique qui voulait que les évènements soient déterminés a priori par des causes. Mais ça ne s’arrête pas là…

Le principe d’incertitude à la source de l’Univers

La notion-clé se résume en quelques mots : sur de très courtes durées l’incertitude sur la mesure de l’énergie est très grande, c’est-à-dire que sur de très courtes durées l’énergie peut fluctuer considérablement ! Via le principe d’incertitude, Dieu est mis en équation…

Les fameuses fluctuations quantiques

S’agissant de l’origine des fluctuations quantiques, le principe d’incertitude nous éclaire. Le voici dans sa formulation mathématique, en version temps-énergie (il en existe plusieurs variantes). On retrouve la constante de Planck sous sa forme réduite (constante de Dirac, qui n’est autre que h/2π) :

L’inéquation stipule que plus l’intervalle de temps est court, plus l’énergie varie. Dit autrement, sur des échelles de temps extrêmement courtes, l’incertitude devient si grande que des fluctuations énergétiques apparaissent…

Voilà donc que le vide peut engendrer de l’énergie ! Or l’énergie est de la matière potentielle ; sans même évoquer le célèbre E=mc2 faisant qu’on peut passer de l’un à l’autre, la matière n’est microscopiquement qu’évanescence énergétique (une expérience, dite des fentes de Young montre que l’électron a les propriétés d’une onde, c’est-à-dire l’immatérialité).

Le vide recèle une énergie phénoménale

Les physiciens ne défendent pas tous le même ordre de grandeur concernant la quantité d’énergie disponible par centimètre cube. Pour autant, s’il y a bien une chose que l’on puisse affirmer, c’est qu’on ne manque pas de vide pour puiser de l’énergie ! Vous me direz : voilà la solution au problème énergétique mondial !

En pratique, le problème n’est pas tant de récupérer l’énergie du vide (quoique…), mais plutôt de la récupérer sans dépenser plus d’énergie qu’on peut potentiellement en extraire ! L’énergie du vide ne s’obtient donc pas gratuitement (ce serait trop beau !), mais notre technologie est insuffisamment avancée pour l’utiliser : elle nécessite de faire fonctionner des engins comme le LHC, qui ont presque besoin d’une centrale nucléaire à eux seuls, tout ça pour récupérer bien moins que pour se faire chauffer une tasse de café ! Le rendement tend vers zéro…

La valeur de 10-29 g/cm3 est communément admise : c’est très peu, mais imaginez à l’échelle de l’Univers, probablement infini ! A moins qu’un barbecue n’ait tourné à l’incendie lors d’un samedi entre potes avec le Bon Dieu, il y a quoi allumer un Big Bang !

C’est très peu 10-29 grammes, mais ce sont des grammes nom de Dieu, des grammes provenant du néant !

L’énergie du vide fait rêver les Hommes

L’énergie du vide s’apparente au mouvement perpétuel, fantasme d’un mouvement sans apport externe d’énergie. En fait, une machine capterait son énergie au sein même de l’espace-temps, car l’énergie du vide est une propriété inhérente de l’espace-temps : du fait même qu’il y ait un espace et un certain temps qui passe, il y a quelque chose, donc de l’énergie potentielle.

L’objet n’est pas de s’attarder sur les extracteurs de potentiel du point zéro, piles à énergie du vide foisonnant dans les univers de science-fiction, mais de montrer brièvement que la maîtrise de l’énergie du vide est un enjeu crucial pour toute civilisation qui vise autre chose que sa planète.

L’énergie du vide permettrait en effet de doper nos technologies, et ainsi passer au rang de civilisation de type II, selon les travaux de l’astronome russe Nikolaï Kardashev, qui a établi la célèbre classification éponyme. En substance – petite parenthèse – une civilisation de type II a dépassé le stade de l’énergie nucléaire : elle est capable d’utiliser l’énergie de son étoile (le soleil !) au moyen d’une sphère de Dyson, superstructure enveloppant le Soleil afin de collecter son énergie. Cette énergie colossale lui permet alors de devenir une civilisation de type 3, ou galactique, en ouvrant des trous de ver, passages rapides à travers l’espace-temps. La véracité scientifique de ces tunnels n’est pas établie, mais ils sont permis par la théorie de la Relativité sous le nom de ponts d’Einstein-Rosen, et la découverte de la matière noire tend à leur accorder un certain crédit, en raison de l’énergie répulsive nécessaire pour stabiliser le vortex. Combinée à la maîtrise de l’énergie gravitationnelle (voir les micro trous noirs fabriqués au LHC !), la civilisation passe ensuite aux rang de civilisation universelle, type 4. Et puis type 5… : colonisation des univers parallèles (hautement hypothétique). Bien entendu, cette quête demande un certain temps…

Quand on a de la soupe, la vie ce sont les croûtons…

A une échelle autre que celle de la vie quotidienne, la physique quantique n’a pas froid aux yeux en violant la loi de conservation de l’énergie, pilier de la physique classique. De ce viol naquit un enfant que tout le monde connaît : bébé Univers. Le reste, si j’ose dire, n’est que fioritures, peaufinage… Du moment où il y de l’énergie, donc de la matière potentielle (des particules élémentaires), la nucléosynthèse primordiale, naissance des touts premiers atomes, peut se produire. La suite, on la connait (à peu près) : dix milliards d’années plus tard, des acides ribonucléiques (ARN) s’assemblent dans l’océan : grâce à l’appariement des bases azotées, ils acquièrent la capacité de se répliquer, mais ce sont aussi des ribozymes : grâce à une structure 3D époustouflante, ils catalysent des réactions chimiques. Ces espèces de nanobes acquièrent alors un cocon protecteur, plus précisément une micelle, agrégat de molécules hydrophobes (ce ne sont pas encore des lipides), à moins qu’il ne s’agît de quelque sorte de coacervats, espèces de bulles d’émulsion, s’organisant de manière à former la première membrane cellulaire, les protégeant ainsi des attaques chimiques extérieures. Dans la foulée, sans qu’on sache toutefois s’il y eut une autre source d’énergie qu’elle, l’ATP (adénosine triphosphate, monomère d’ARN) dut faire son apparition. En stockant l’énergie via une liaison phosphate, et en la restituant au besoin, cette molécule permit aux cellules primitives de lutter contre le froid. Avec elle, toute une machinerie cellulaire, gourmande en énergie, put naître. Les grandes lignes sont écrites, mais cela demande des milliards d’années de perfectionnement, ou plutôt d’évolution, pour arriver jusqu’à nous. En fait, le moindre insecte est inimaginablement complexe, et j’aime à philosopher en voyant ces chrysomèles du romarin déguster… du romarin.

Chrysomelia americana (qui n’est pas une coccinelle) passe sa vie à manger du romarin, bien qu’elle adore la lavande et toutes sortes de lamiacées…

Quand je n’ai rien à faire, j’aime à chercher des informations génétiques sur elle dans un moteur de recherche, histoire de me rappeler que cette bestiole est comme nous. Eh oui, l’ADN de toutes les espèces est répertorié : http://www.ncbi.nlm.nih.gov/pubmed/11678504 ! La vie nous rend solidaire au moindre insecte : ils sont poussière, nous aussi ; de la terre nous provenons et à la terre nous irons, dixit un Livre assez connu…

La Création ex nihilo est l’explication scientifique de Dieu

Elles (les chrysomèles !) comme nous surgissons du néant. Une hypothèse alternative veut qu’un chamane barbu ait pétri la Terre et mis les éponges dans la mer afin qu’elle ne déborde pas (Alphonse Allée). D’aucuns ne prétendent que de ses mains sacrées il a fait une belle boulette ! Comme disait Laplace à Napoléon, on n’a pas forcément besoin de cette hypothèse, d’autant qu’elle manque cruellement de preuves ! Il est encore plus sage d’avoir confiance en les fluctuations quantiques du vide et en la self-réplication des acides ribonucléiques qu’en des balivernes changeant à chaque frontière, cela dit les opinions de chacun sont respectables. N’empêche que si tout le monde trouvait que le soleil est vert, comme pendant des siècles la Terre était le centre de l’Univers, il n’en demeurerait pas moins jaune !

La pluralité des voix n’est pas une preuve pour les vérités malaisées à découvrir, dixit Descartes… On fustigeait Copernic et Galilée pour leurs opinions révolutionnaires, brûlait Giordano Bruno pour avoir affirmé qu’il existe d’autres mondes que la Terre (on connaît aujourd’hui des centaines de planètes extrasolaires), mais ces hommes-là ont pris la plus belle revanche qui soit : ils ont fait des disciples !

Comme le dit Stephen Hawking (découvreur de l’évaporation des trous noirs), il n’est pas nécessaire d’invoquer Dieu, car la création ex nihilo est la raison pour laquelle tout se crée spontanément à partir de rien.

En tout bon scientifique, je me dois de mentionner le contre-argument imparable que ses détracteurs rétorquent : les lois de la physique suffisent-elles à expliquer l’Univers qui se serait créé à partir du néant, donc lorsqu’il n’y avait pas de lois de la physique ?

Faut-il alors admettre, comme les frères Bogdanov, qu’il existe un code cosmologique inhérent à l’Univers ? La Trinité s’apparente-elle au trio constante de Planck – constante de la gravitation – vitesse de la lumière ? Faut-il y ajouter la constante cosmologique, ou d’autres, telle la constante de structure fine ? L’idée est que les constantes non fondamentales se retrouvent à partir des autres…

En matière de fixation des constantes, je suis partisan d’une évolution cosmique (terme d’Hubert Reeves dans Patience dans l’azur), fondée sur le darwinisme biologique : à l’instar du vivant, les univers qui s’adapteraient le mieux « surviveraient » (perdureraient). A mon humble avis – nous sortons là du cadre de la physique et nous engageons dans la métaphysique – les lois de la physique sont ce qu’elles sont et pas autrement, car dans les univers désolés où elles sont autres, nous ne sommes par là pour ne nous le dire ! Il se peut fortement que toutes sortes d’univers aient été essayés, et que celui-ci ait conduit à la vie. Si ne serait-ce que cet essai-là a été fructueux, il n’y aucune raison que cela ne se soit pas déjà produit et ne se reproduise pas (en dehors du fait qu’il doit exister des intelligences extraterrestres dans cet Univers même, l’absence de preuves n’étant pas la preuve de l’absence).

Vies alternatives : du moment où il  y a quelque chose, on en fait ce qu’on peut.

En avril 2010, puis en juin 2011, sur le modèle du principe anthropique, qui veut que l’Univers soit ajusté pour l’Homme, Pour la science consacrait un article aux univers alternatifs, en analysant scientifiquement, pour ce que nous en savons, si la vie serait possible dans des univers avec une physique différente. Les auteurs, éminents chercheurs, s’entendent pour dire que oui. Le numéro 390 va jusqu’à titrer à la une : « D’autres lois pour d’autres univers. La vie serait-elle encore possible ? », avec comme chapeau : « Une modification des lois de la physique peut conduire à des univers différents et néanmoins habitables. Notre Univers ne serait donc pas un cas exceptionnel. »

Cependant, la communauté scientifique a la (fâcheuse ? Non !) habitude de travailler uniquement sur ce qu’elle sait. Bien que les auteurs aient ratissé large, il est difficile de prédire quoi que ce soit en matière d’apparition et d’évolution de la vie, tant le phénomène est plurifactoriel. Seule certitude : la physique, chapeautant la chimie, joue un rôle prépondérant dans l’émergence de la vie. Aussi, jusqu’à récemment on admettait que si la Lune n’était pas là pour stabiliser l’axe de rotation terrestre, il en résulterait des aléas climatiques (en particulier l’absence de saisons) peu propices au développement de la vie, tout du moins supérieure. Nul doute également que la vie est influencée par la gravitation : sur une planète à plus faible gravité, notre constitution serait différente. Pour autant, il ne s’agit pas de réfléchir à ce que serait la vie ailleurs, mais d’étudier si la vie, telle que nous la connaissons, est possible avec une physique exotique.

Mais la vie… c’est un bien grand mot ! Car les comportements adaptatifs, l’homéostasie (maintien d’un milieu propre), et la reproduction ne sont pas l’apanage du vivant ! Les programmes informatiques, en plus de partager ces qualités, ont même la capacité de se reproduire, évoluer et muter, d’où l’analogie entre virus biologique et informatique. L’étude des algorithmes génétiques, initiée par Conway avec le célèbre jeu de la vie, a le vent en poupe. Elle pourrait conduire à l’intelligence artificielle, dont on se doute qu’elle est possible en imitant les réseaux neuronaux (voir cet article où sont évoqués les portes logiques et le perceptron : lien)

Dieu, c’est l’Univers

Je raillais Dieu en quelques lignes dans un article précédent. Il me semble en effet que l’Univers possède les caractéristiques du divin ; aussi vois-je plutôt Dieu comme un concept réunissant autogenèse, accès à un espace infini, donc à une énergie infinie, et connaissance infinie : l’Univers étant l’ensemble de tout, il contient (en nous notamment, qui en faisons partie) toutes les informations.

En thermodynamique, l’Univers est un système isolé, c’est-à-dire qu’il ne subit aucun échange avec son environnement : et pour cause, son environnement, c’est l’Univers même, qui est partout ! Les prérogatives de Dieu sont vraiment celles de l’Univers, seul à posséder les trois infinis : information, énergie, espace-temps, soit omniscience, omnipotence, omniprésence (ubiquité).

Quand on demandait à Einstein s’il croyait en Dieu, il répondait « dites-moi ce que vous entendez par Dieu et je vous dirai si j’y crois ». Tel est à mon avis ce que tout le monde devrait répondre ! D’un côté, qui suis-je pour prétendre à une réponse universelle ? La pensée unique est un vice, d’ailleurs le propre de la démocratie est que chacun est libre de penser comme il veut.

Telle est une boutade de Gustave Parking…

Tout est relatif : pour un croyant, c’est plutôt invoquer les fluctuations quantiques comme origine de l’Univers qui est fou ! Il est aussi rassurant, bien qu’on sorte du domaine de la physique, de se dire que les fluctuations quantiques à l’origine de notre univers n’ont aucune raison de ne pas se reproduire (d’ailleurs, elles ne peuvent que se produire). Finalement – c’est éminemment philosophique – en vertu du principe d’incertitude, il n’y a aucune raison pour que le Big Bang ne se reproduise pas, et une infinité de fois. Par conséquent, dans des univers à l’identique, il me paraît tout à fait envisageable que nous renaissions. En revanche, à chaque univers, l’information serait perdue. En supposant que le temps s’écoule irréversiblement, les études montrent que l’entropie (le désordre) augmente : chaque univers subirait un formatage, et il ne     resterait rien du précédent. Quant à revivre à nouveau, et à l’heure même c’est peut-être le cas vis-à-vis d’un univers passé, nous n’en aurons pas conscience, car cet univers « passé » correspondrait plutôt à l’ailleurs, zone de non-causalité dans un temps inaccessible : à chaque Big Bang, le chronomètre repartirait à zéro (reste à savoir comment), affectant chaque univers d’un temps propre.

Bien entendu, cela n’est que pure spéculation, et par définition nous ne saurons jamais rien des univers « précédents » s’ils ne transmettent aucune information : ce serait alors des univers parallèles, munis d’un autre temps. Mais puisque cet univers-là existe, d’autres ont dû exister et existeront, parce qu’il y a équiprobabilité : le principe d’incertitude a, est, et restera toujours valable, en tant que propriété intrinsèque non seulement de tout, mais surtout de rien ! Paradoxalement, c’est la même chose…

Quand aux gens qui cherchent une cause première à l’Univers, elle est toute trouvée : s’il y a quelque chose plutôt que rien, c’est parce que le rien n’existe pas. Il y a toujours quelque chose ! Et ce, en application du principe d’incertitude.

Preuves du principe d’incertitude

La science fait ses preuves – et c’est sa force. Les gens malades, religieux y compris, comptent plus sur leur médecin que sur les miracles. Nous ne sommes pas au bout de nos peines : j’ai gardé le meilleur pour la fin : s’assurer que le principe d’incertitude ne fait pas partie des balivernes. Loin d’être une théorie fumeuse, le principe d’incertitude, s’il n’explique pas à lui seul la prodigieuse complexité de l’Univers (en particulier l’avènement des systèmes complexes, comme nous), a le mérite d’expliquer la Création à partir de rien ! C’est déjà ça : une fois qu’il y a quelque chose, d’autres lois, celles de la cosmologie, de la physique quantique (comme la chromodynamique quantique) de la physique des particules, prennent le relais. Si le boson de Higgs, qui expliquerait bien des choses à l’origine de l’Univers (à tel point qu’on l’appelle « particule Dieu ») est toujours recherché, il n’en demeure pas moins quelque chose de banal comparé à ce qui s’est passé avant. La Création ex nihilo permise par le principe d’incertitude tient plus du miracle que tout le reste. Même s’il ne s’agit qu’une d’une vulgaire formule, le principe énonce l’origine ultime de l’univers : le vide est fécond. Bien entendu, on ne sait pas précisément pourquoi, ou plutôt comment, les fluctuations quantiques sont à l’origine de l’Univers, mais on sait qu’elles le sont. Pour être davantage rigoureux, rien ne dit que ce fut le (presque !) néant, puis que fluctuations quantiques engendrèrent l’Univers (par exemple, un passage spatio-temporel depuis l’avenir – un trou noir – a très bien pu correspondre avec un trou blanc et injecter une quantité phénoménale d’énergie suscitant le Big Bang). Le principe d’incertitude ne dit pas avec certitude (!) que l’Univers provienne de fluctuations quantiques. En fait, nous n’en savons rien : des dieux (des extraterrestres autrement dit), ont très bien pu donner un coup de pouce à la Création. Il n’en demeure pas moins que ces êtres, ou le trou blanc que j’évoquais, ou n’importe quoi en définitive, sont là en vertu du principe d’incertitude : il ne peut pas ne rien exister !

Le principe d’incertitude repose sur des preuves expérimentales. En physique, il étaye le modèle de Bohr, relatif à la quantification des niveaux d’énergie d’un atome, en stipulant toutefois qu’il est seulement probable de trouver tel électron ici ou ailleurs dans le nuage électronique. En effet, la précision sur la vitesse allant de pair avec une dispersion sur la position et vice-versa, il est impossible de connaître simultanément la position exacte d’un électron et sa vitesse à un instant donné. On se doit alors de remplacer la notion classique de position par celle de probabilité de présence. Cette probabilité se calcule par l’équation de Schrödinger faisant intervenir la fonction d’onde

Dans les grandes lignes, on a longtemps pensé que l’atome était un système solaire miniature, les électrons gravitant autour du/des proton(s) en suivant une orbite bien définie (c’est le modèle – erroné – de Rutherford). Vint un jour, où ces conceptions furent bouleversées, par Bohr notamment, et le principe d’incertitude permet d’y voir plus clair. En physique classique, on admet que le proton, dont la masse l’emporte largement sur celle de l’électron, peut être considéré comme fixe. Son énergie s’écrit alors

où p désigne la quantité de mouvement (produit masse-vitesse), et εla permittivité du vide (intervenant dans la loi de Coulomb).

Petit problème : un tel système ne possède pas de minimum énergétique. En faisant tendre le rayon vers 0, l’énergie tend vers -∞ ! Le principe d’incertitude pallie à cette lacune de la physique classique : mettons que le rayon de l’atome devienne extrêmement faible sous des contraintes extérieures ; alors la vitesse d’un l’électron ne peut être inférieure à l’incertitude sur la position, dès lors que cette incertitude est de l’ordre du rayon de l’atome.

La résolution de l’équation de Schrödinger (qui, dans le cas de l’atome d’hydrogène, star des livres d’école, n’est pas si compliquée qu’il n’y paraît, dans la mesure où il s’agit d’une équation différentielle du second ordre), montre que cette équation n’admet de solutions que pour certaines valeurs de l’énergie. Or ces valeurs de l’énergie correspondent aux niveaux énergétiques décrits par Bohr (c’est là qu’intervient le fameux nombre quantique principal, définissant les couches électroniques responsables de la chimie). Mieux encore, les valeurs sont en adéquation avec les spectres atomiques expérimentaux, figurant des raies d’émission pile aux valeurs calculées ! Ou presque…

Justement, en matière de spectre, le principe d’incertitude se manifeste dans un phénomène inexplicable autrement de manière complète : les raies, associées à une certaine longueur d’onde, devraient avoir une fréquence déterminée (puisqu’il y a proportionnalité inverse entre la longueur d’onde et la fréquence). Or on s’aperçoit que les raies oscillent légèrement dans une bande fréquentielle. L’effet Doppler (éloignement/rapprochement de la source vers l’observateur) joue surtout, mais le principe d’incertitude relie la durée de vie d’un état excité et la précision de son niveau énergétique, de sorte que le même niveau énergétique a des effets légèrement différents selon les atomes.

Le principe d’incertitude, en plus de reposer sur un socle mathématique, est prouvé dans le cadre de la masse de Chandrasekhar en astronomie. Il s’agit, dans l’étude des naines blanches, de la masse que la pression de dégénérescence électronique peut supporter, la pression de dégénérescence étant un phénomène quantique intervenant dans la matière dégénérée, par exemple les soupes d’électrons que sont les plasmas présents au sein des étoiles. Cette masse de Chandrasekhar éntant importante dans la formation des supernovas, le principe d’incertitude, impliqué dans la relation masse-rayon des naines blanches, est prépondérant en astrophysique (voir un cours : http://www.ensta-paristech.fr/~perez/conferences/ane_mort.pdf).

Einstein n’aimait pas le principe d’incertitude

Einstein désavouait la physique quantique, en raison de la remise en question du déterminisme et de l’approche probabiliste qu’elle plébiscite. Il disait « Dieu ne joue pas aux dés », ce à quoi Stephen Hawking répond : non seulement Dieu joue aux dés, mais il les lance là où ne peut pas les voir !

Pour autant, Einstein n’a pas le monopole… non pas du cœur, mais de la physique ! Lors du 5e congrès Solvay (1927), il soumit à Bohr un fameux défi expérimental : nous remplissons une boîte avec un matériau radioactif qui émet, de manière aléatoire, une radiation. La boîte a une fente qui est ouverte et immédiatement fermée par une horloge de précision, permettant à quelques radiations de sortir. Donc le temps est connu avec précision. Nous voulons toujours mesurer précisément l’énergie qui est une variable conjuguée. Aucun problème, répond Einstein, il suffit de peser la boîte avant et après. Le principe d’équivalence entre la masse et l’énergie permet ainsi de déterminer précisément l’énergie qui a quitté la boîte. Bohr lui répondit ceci : si de l’énergie avait quitté le système alors la boîte plus légère serait montée sur la balance. Ce qui aurait modifié la position de l’horloge. Si l’horloge dévie de notre référentiel stationnaire, par la relativité restreinte, il s’ensuit que sa mesure du temps diffère de la nôtre, ce qui conduit inévitablement à une marge d’erreur. L’analyse détaillée montre que l’imprécision est donnée correctement par la relation d’Heisenberg.

Einstein fut donc pris à son propre jeu (la Relativité). Aujourd’hui, force est d’admettre que la physique quantique ne se fourvoie pas : il existe une part d’incertitude inhérente à la Nature, laquelle implique que nous ne pouvons affirmer : « il n’y a strictement rien ici ». Cette affirmation est beaucoup trop précise pour être véridique. Dans les faits, le vide fluctue, Dieu merci…

La blague (du tonnerre)

Maintenant qu’on a bien rigolé, je peux vous là faire, cette blague :

Heisenberg se fit un jour arrêter pour excès de vitesse. Le policier, effaré, lui cria :
— Mais vous êtes fou, savez-vous à quelle vitesse vous rouliez ?
Et Heisenberg de répondre :
— Non, mais je sais très bien où je suis.

(N’hésitez pas à rire !)

Gémellité bizarre, grossesses multiples, ADN double…

A propos de l’anniversaire de la naissance chez la plus jeune mère de l’humanité, revenons sur ces phénomènes échappant à l’ordinaire scientifique. Dans le cas de cette grossesse à 5 ans, il s’agit d’un déséquilibre hormonal hyper précoce (la date des premières règles suit une fonction gaussienne : la plupart des filles se situent aux alentours du sommet de la courbe en cloche, mais rien n’interdit, dans des cas très rares, d’être marginal). Pour autant, la science décrit les phénomènes réputés universels, par conséquent elle est battue en brèche dans des cas insolites. Revenons justement sur ces inédits de la biologie, qui ont une explication même si nous n’en connaissons pas forcément tous les rouages…

La superfétation

La superfétation se définit comme l’implantation d’un nouvel embryon dans un utérus contenant déjà une grossesse. Bien plus rare que les grossesses extra-utérines (urgence chirurgicale), c’est aussi un phénomène plus étrange. Et pour cause, mener deux grossesses de conception différée dans le temps (souvent avec un père différent, on parle alors de superfécondation) n’est pas sans poser de problème : il arrive que cela tourne mal, sans que personne ne le sache… A défaut de donner naissance à des (faux) jumeaux de père différent, la mère se croit enceinte d’un enfant uniquement, et donne naissance à un enfant. Quarante ans plus tard, un patient consulte pour douleurs thoraciques : lors d’une radio, on lui retrouve une embryon fossilisé dans le poumon : son frère ou sa sœur issu d’une grossesse par superfétation. Ce phénomène peut également se produire lors d’une grossesse gémellaire ignorée : un des deux jumeaux se retrouve inclus à l’intérieur d’un autre, et l’on ne s’en aperçoit généralement qu’en cas de douleur…

Les jumeaux, justement

On parle de jumeaux, mais on devrait parler de types de jumeaux. La différence entre faux jumeaux (frères et sœurs nés en même temps dû à une ovulation simultanée des deux ovaires avec deux fécondations distinctes) et vrais jumeaux (issus d’une seule et même cellule-œuf) est nette. Mais, concernant les vrais jumeaux, dont la cause reste un mystère, connaît-on les différentes variantes ?

Tout d’abord, le placenta : les grossesses gémellaires peuvent se faire avec deux placentas distincts (bichorionique), ou un seul placenta (monochorionique), le second cas étant le plus rare.

Il en va de même pour l’amnios : la plupart des vrais jumeaux se développent dans le même sac amniotique, mais il peut arriver des grossesses biamniotiques.

Vrais jumeaux : l’un est une fille, l’autre un garçon !

Plus étrange, les vrais jumeaux hétérocaryotes : les vrais jumeaux… qui ne se ressemblent pas ! Du moins, ces jumeaux-là ne se ressemblent pas autant qu’ils le devraient. Malheureusement, souvent en mal : un jumeau (ou une jumelle) est normal(e), l’autre est atteint d’une maladie génétique affectant sa morphologie. Parfois, l’un est une fille, et l’autre son clone masculin, dû à la différence de chromosomes sexuels.

On parle d’hétérocaryote, car le patrimoine génétique est hétérogène : il est bel et bien différent chez les deux vrais jumeaux, et pourtant il s’agit de vrais jumeaux, puisqu’ils sont monozygotes (issus de la même celulle-œuf) ! Les hétérocaryotes sont en fait un cas de mosaïcisme génétique, un concept éminemment étrange…

Les chimères

A part les jumeaux dont la séparation a mal tourné (voir Abigal et Britanny Hensel), le deux-en-un prend des dimensions toutes aussi étranges lorsqu’il s’agit de passer un test ADN chez une personne apparemment normale. En effet, le dogme de la biologie veut qu’à toute personne (et plus généralement à tout être vivant !) soit associé un ADN unique. Bien sûr, cet ADN peut être le même ailleurs : à l’instar de petits pois issus de la même cosse, deux vrais jumeaux ont le même ADN (encore que les apports de l’épigénétique, à savoir les modifications du génome induites par l’environnement tendent à remettre cela en question). Il n’en demeure pas moins que chaque jumeau (ou jumelle) pris(e) séparément possède son ADN ! Bref : une personne, un ADN. Pas si sûr…

Mosaïcisme

Assez méconnu, le mosaïcisme est l’atout idéal pour échapper à la police scientifique (mais Les Experts Las Vegas y ont déjà pensé dans un épisode : Meurtre à double code, dernier épisode de la quatrième saison !) Dans de très rares cas, plusieurs génotypes peuvent coexister au sein d’une même personne, c’est-à-dire qu’un individu possède deux (ou plus) ADN ! Ce phénomène puise son origine dans les touts premiers stades du développement : en particulier, chez la femme, il est souvent du à des anomalies de lyonisation (inactivation d’un des deux chromosomes X, afin de ressembler à l’homme – qui n’en a qu’un)
Le mosaïcisme se révèle généralement quand certaines cellules sont malades et d’autres non, mais une histoire plus extraordinaire se serait produite aux Etats-Unis : une femme est le mélange de deux fausses jumelles qui avaient fusionné dans l’utérus ! Du coup, elle possède deux ADN : certaines parties de son corps sont dictées par l’un, et d’autres parties par l’autre. Plus fou encore, deux de ses fils ont hérité d’un profil génétique, et le troisième de l’autre ! Cela fait donc des frères qui n’ont théoriquement pas la même mère, et pourtant !

Quand nos parents et grands-parents survivent en nous…

« N’est pas mort pour toujours qui dort dans l’éternel, mais d’etranges éons rendent la mort mortelle. » : telle est une phrase du célèbre écrivain de science-fiction Arthur C. Clarke.

Selon de récentes études, nous posséderions tous des cellules de nos parents et de nos grands-parents, ce qui n’est pas sans rappeler les greffes. Si l’idée d’héberger des cellules d’autrui ne fait pas bon ménage avec notre sens de l’individualité, le phénomène est explicable : il proviendrait des échanges fœtaux à travers la barrière placentaire. En effet, le placenta, agissant comme un filtre vis-à-vis de certaines substances, laisse tout-de-même passer bon nombre de cellules maternelles (et par voix de fait grand-maternelles) qui peuvent persister jusqu’à l’âge adulte. De plus, cet échange a lieu dans les deux sens : la mère capte des cellules de son bébé ; c’est ce qu’on appelle le microchimérisme (plus de détails dans Pour la science), et ces cellules issues de frères et sœurs aînés peuvent se retrouver dans d’autres enfants de cette mère.

Il est à noter que si la mère ne rejette pas son enfant comme un vulgaire corps étranger (ça vaut mieux pour la survie de l’espèce…), c’est en raison de ces échanges cellulaires, impliquant notamment HLA-G, antigène primordial du complexe majeur d’histocompatibilité (CMH).

Il est également probable que ces cellules « étrangères » aient un rôle dans la réparation tissulaire, tout du moins qu’elles nous aident à rester en bonne santé. Si cela n’est aucunement prouvé, une hypothèse veut qu’avec le temps ces cellules disparaissent, laissant la voie libre aux cancers.

Greffes entre jumeaux

Durant la vie fœtale, des greffes de cellules souche hématopoïétiques ont été observées entre des faux jumeaux partageant le même placenta (échanges circulatoires). Ce chimérisme est constaté fortuitement lors de la détermination du groupe sanguin, qui met en évidence la présence d’une double population cellulaire. Les deux êtres ayant un groupe sanguin différent, c’est le résultat de cellules étrangères qui cohabitent avec les cellules d’un hôte. Dans des cas rarissimes, ceci peut conduire à de fausses exclusions de mater/paternité, étant donné que l’ADN identifié lors d’un prélèvement sanguin est différent de l’ADN gonadique.

En matière de jumeaux, une seule certitude : les médicaments utilisés dans le traitement de l’infertilité et la procréation médicalement assistée contribuent à augmenter la proportion de jumeaux. Vous voulez un enfant et vous avez du mal à en avoir ? Vous aurez des nonuplés ! A ne pas prendre au pied de la lettre…

Toujours est-il qu’en sciences, rien ne vaut parole d’évangile. De même que la sacro-sainte parole « un gène code pour une protéine » est mise à mal par l’épissage des ARN messager, beaucoup de considérations valables dans 99,9% des cas causent l’incompréhension dans les 0,01% restants. C’est le cas des hommes qui allaitent (gynécomnastie), car si fou que cela paraisse, l’homme a l’équipement pour, et il arrive que les glandes mammaires se développent outre-mesure. Et cela vaut aussi en physique : si la vie de tous les jours obéit à la physique classique, quelle ne fut pas la surprise des physiciens de découvrir que le monde microscopique (les particules), ou astronomique (les trous noirs, le Big Bang) sont régis par d’autres formes de physique, à savoir la physique quantique et la Relativité. Et en se remémorant le phénomène saugrenu de surfusion de l’eau, il ne faut vraiment pas aller trop vite en besogne !