Qu’est-ce que la vie ? Voilà une question essentielle, notamment en astrobiologie : la discipline qui s’intéresse aux processus pouvant conduire à l’émergence de la vie, en particulier ailleurs que chez nous !

En complément de la vidéo, voici quelques précisions concernant des points que j’ai évoqués.

Exo vs Astro

J’ai eu un petit débat avec moi-même quant à la dénomination du champ disciplinaire. Wikipedia EN me présente « Astrobiology » comme étant la nouvelle appellation de ce qui était anciennement « Exobiology ». Wikipédia FR me dit qu’«Astrobiologie» est l’appellation anglo-saxonne. Et d’un autre côté la page du LATMOS les considère comme équivalents. Alors va pour « astrobiologie », qui me semble un chouilla plus clair.

A propos des virus

Il y aurait beaucoup à dire sur les virus et autres particules virales, qui ont le mauvais goût de présenter une tripotée de « cas limites » rendant bien difficile toute tentative de définition stricte. Essayez de tracer une frontière conceptuelle quelque part, il y a à coup sûr une particule virale qui va vous la foutre en l’air ! Avec ou sans capside, avec de l’ADN ou de l’ARN, très gros ou très petit. Il y en a pour tous les goûts !

Un point que l’on peut ajouter par rapport à ce que j’ai dit dans la vidéo : certains virus, en plus de leur capside, peuvent être entourés d’une enveloppe contenant entre autres des lipides (et pouvant provenir des membranes traversées au cours des infections.) On parle alors de virus enveloppé. C’est le cas de nombreux virus « connus » comme le VIH, Ebola ou le virus de la grippe. D’ailleurs sur la quasi-totalité des représentations graphiques de synthèse que l’on voit de ces virus, la structure la plus externe est l’enveloppe, et la capside ne se distingue pas forcément.

Le code génétique

Deux petites précisions concernant le code génétique : j’ai choisi de le présenter dans sa version « ADN » pour ne pas introduire trop de confusion, mais en pratique, il s’applique au niveau de l’ARN puisque la synthèse des protéines est faite à partir d’un brin d’ARN lui-même obtenu par transcription de l’ADN. En pratique, le tableau de conversion est le même, on remplace juste les T par des U puisque l’ARN utilise l’uracile comme base.

Toujours concernant le fameux code génétique, je l’ai présenté comme une caractéristique universelle et immuable des organismes vivants. Et pourtant comme toujours, il y a des toutes petites exceptions à la marge. Il y a notamment un article Wikipedia qui liste une trentaines de variantes connues, souvent dans les mitochondries.

Autre subtilité à la marge, en plus de la sélenocystéine, il existe un 22e acide aminé « non-standard », la pyrrolysine, qu’on ne retrouve que chez certaines archées. Comme la sélenocystéine, c’est un acide aminé qui est codé par le codon UAG, qui « normalement » est un codon stop, mais qui — quand il est précédé par une certaine séquence — permet qu’il soit interprété différemment (je ne sais pas comment un programmeur appellerait cette manoeuvre, ça me fait penser aux décorateurs en Python !)

Pour tous les autres acides aminés (autre que ces 22), on parle d’acides aminés « non-protéinogènes ». Je trouvais le mot un peu compliqué pour cette vidéo, alors j’ai plutôt utilisé l’adjectif (non-officiel) « exotique ». D’ailleurs une précision importante : il faut faire une distinction entre les 22 acides aminés « protéinogènes », qui sont donc codés dans le code génétique, et les acides aminés que l’on retrouve plus généralement dans les protéines. Il se peut qu’un acide aminé se retrouve dans la structure finale d’une protéine sans qu’il ait été là au moment de la traduction de l’ARNm. L’acide aminé peut résulter d’une modification ultérieure lors d’une étape dite « post-traductionnelle ». Il existe aussi des acides aminés qu’on retrouve dans le vivant, mais pas forcément incorporés dans les protéines (par exemple la L-DOPA, précurseur de la dopamine)

D’ailleurs une petite remarque sur la définition chimique : tous les acides aminés protéinogènes ont un hydrogène simple lié au carbone « alpha », et donc une seul chaine latérale R. Mais stricto-sensu, on pourrait imaginer remplacer l’hydrogène seul par une autre chaine latérale. Voir par exemple l’acide 2-Aminoisobutyrique qui possède deux groupements CH3 en guise de chaines latérales.

CHONPS et métalloprotéines

J’ai raconté dans la vidéo que toutes les molécules dont je parlais étaient faites de seulement 6 éléments, les CHONPS. Et pourtant, comme vous le savez, plusieurs autres éléments sont indispensables à la vie : magnesium, potassium, calcium, iode…A cela il faut ajouter pas mal de métaux que l’on range souvent dans la catégorie des « oligo-éléments ». On les retrouve même dans certaines protéines qu’on appelle alors « métalloprotéines ». Ces éléments ne sont pas incorporés immédiatement dans la phase de traduction, mais ultérieurement.

Un exemple très connu : le fer, qui entre dans la structure de l’hémoglobine. Autant dire que sans lui on aurait du mal.

Il y a un autre exemple que j’aime beaucoup : le manganèse. Cet élément peu connu (parfois confondu avec le magnesium) joue pourtant un rôle crucial dans la vie, puisqu’il entre notamment dans la structure du photosystème II, un complexe qui permet la photosynthèse. Sans manganese, pas de photosynthèse, pas de végétation, pas d’oxygène sur Terre.

Vive le manganèse !

Le plastique c’est fantastique

Assez de biologie, parlons un peu de chimie des polymères ! J’ai évoqué le fait que le silicium, avec ses 4 liaisons potentielles, pouvait se poser en candidat de remplacement du carbone. J’ai mentionné la façon dont on le retrouve dans les silicones, des polymères (plastiques) qui diffèrent des polymères usuels à base de carbone. Il y a pourtant une subtilité.

Dans les silicones (comme le PDMS pour prendre l’exemple le plus connu), le silicum ne sert pas à former de longues chaines -Si-Si-Si-Si- comme le ferait le carbone, mais il s’associe avec un oxygène pour former des chaines de -(Si-O)-(Si-O)-. Techniquement, c’est donc plutôt le couple (Si-O) qui se substitue au carbone. Il doit y avoir une histoire d’énergie des liaisons Si-Si versus (Si-O)-(Si-O) qui explique ça, si jamais un chimiste passe par là 🙂

Edit : Sur ce dernier point, je me permets de copier/coller la très bonne intervention de B.Lamotte en commentaire ci-dessous :

Il faut pointer une différence essentielle entre eux (revenons à Pauling !) :
– l’atome de carbone possède une grande versatilité car il est capable de former trois types de liaisons différentes (simples, doubles et triples) avec d’autres atomes (C, O, N, S, P …).
Ceci parce que, d’un point de vue des energies en jeu de ses orbitales 2s et 2p, il a la capacité d’hybrider celles-ci en, respectivement, les orbitales hybrides sp3, sp2 et sp.
– capacité que n’a pas, de ce même point de vue, celui de silicium dont les orbitales 3p sont plus étendues, et qui, à ma connaissance, n’offre que la possibilité de s’hybrider qu’en sp3.

Ceci explique la très grande versatilité et donc fécondité des situations mettant en jeu le carbone : c’est tout le monde des molécules organiques et singulièrement celles en jeu dans
le monde vivant, végétal comme animal que nous connaissons. Ce, alors qu’on ne trouve le silicium pour l’essentiel que dans le monde minéral (et faiblement dans le monde végétal).

23 Comments

  1. Samuel Thibault Reply

    Effectivement ça ressemble à un décorateur Python, mais je parlerais plutôt d’échappement: « \n » est bien différent de « n » 🙂

    • Lissajoux thomas Reply

      Oui ! Excellent bouquin, peut etre même le plus essentiel à ma vie entière !! A lire absolument, et en plein de le thème !!
      D’ailleurs, David indique que la vie serait contraire, et irait à l encontre des lois de la thermodynamique, mais Francois Rodier semble indiquer que si tel est le cas, ce ne serait uniquement que parce que arrivée à un point critique (lorsqu’elle est traversée par un flux d energie constant dans un système fermé, comme sur terre), la nature s auto reorganiserait (en réduisant l entropie donc), mais uniquement dans le but de mieux encore dissiper l energie, et donc d augmenter l entropie ! Et que l homme serait (à ce que l on en sait) en réalité un dissipateur d energie sous forme de chaleur ultra performant ! Donc la nature réduirait l entropie du point de vue micro, mais uniquement pour l augmenter d un point de vue macro.
      En tout cas très bonne analyse, très intéressante, et j ai hâte de voir la suite ! Je serais ravi d en débattre !

  2. Jean Marguin Reply

    Bonjour,
    Pour la suite de votre exposé, je ne peux que vous recommander :
    François Roddier : « Thermodynamique de l’Evolution », Editions Paroles, 2019
    Eric J. Chaisson : « Cosmic Evolution, The Rise of Complexity in Nature », Harvard University Press, 2001.
    Ces deux ouvrages, que vous connaissez certainement, ont bouleversé ma vision de la vie et de l’univers…
    Cordialement,
    JM

    • Lissajoux thomas Reply

      Oui ! Excellent bouquin, peut etre même le plus essentiel à ma vie entière !! A lire absolument, et en plein de le thème !!
      D’ailleurs, David indique que la vie serait contraire, et irait à l encontre des lois de la thermodynamique, mais Francois Rodier semble indiquer que si tel est le cas, ce ne serait uniquement que parce que arrivée à un point critique (lorsqu’elle est traversée par un flux d energie constant dans un système fermé, comme sur terre), la nature s auto reorganiserait (en réduisant l entropie donc), mais uniquement dans le but de mieux encore dissiper l energie, et donc d augmenter l entropie ! Et que l homme serait (à ce que l on en sait) en réalité un dissipateur d energie sous forme de chaleur ultra performant ! Donc la nature réduirait l entropie du point de vue micro, mais uniquement pour l augmenter d un point de vue macro.
      En tout cas très bonne analyse, très intéressante, et j ai hâte de voir la suite ! Je serais ravi d en débattre !

  3. JUAN MENARES Reply

    Très bon exposé. Je l’ai vu/écouté jusqu’à la fin.
    Comment expliquez vous que la vie soit apparue beaucoup de temps après la formation de la Terre?

    • Bonjour, eh bien pas tant que ça justement ! La Terre s’est formée il y a 4,5 milliards d’années. La vie est apparue il y a 3,5—4 milliards d’années, donc ça a été « assez vite »

  4. El Hasmi Saïd Reply

    Cher David,

    Question : selon de définition de la NASA peut on raisonnablement penser qu’un système solaire, une galaxie ou autre structure de l’univers est un organisme vivant; un Système complexe Chimique (tout ce que qui compose une galaxie) auto-entretenu (en dévorant, absorbant tout ce qui traîne dans son voisinage) Capable d’évolution Darwinienne, avec la gravité comme catalyseur ou système qui lutte contre l’entropie, désordre?

    Bien à vous

    • Dans ces cas là, je ne sais pas s’il y a vraiment « évolution darwinienne » (ce qui sous entend une notion de capacité à se répliquer pour s’étendre), mais peut-être avec d’autres types d’objets.

      • Jean Michel TOLEDANO Reply

        Bonjour
        Je me souviens avoir lu un interview de Monod quelques temps après son prix Nobel (avec Jacob et Lwolff). Le journaliste l’interrogeait sur les progrès de la biologie. Il a répondu que la biologie avait décollé à partir du moment où les biologistes avaient renoncé à définir le vivant. Cette position est conforme à la démarche des sciences modernes. En physique la définition du temps est une question métaphysique (idem pour l’énergie). Je suis chimiste la chimie ne donne pas de définition de la matière c’est de la metachimie. De même j’ai compris de Monod que la définition du vivant c’est de la métabiologie.
        Pour moi donc « qu’est-ce que la vie » est une question dont il faudrait d’abord savoir si elle est scientifique ou philosophique. Tu as esquivé ce débat ce qui est de bonne guerre mais des réponses comme celle de la NASA sont opérationnelles (ça sert à définir un cadre de recherche) mais n’apportent rien sur le fond.
        Je te remercie pour ton énorme travail et la qualité de tes productions
        JMT

  5. Bernard Lamotte Reply

    Bonjour,
    Pour en revenir à CARBONE vs. SILICIUM
    Il faut pointer une différence essentielle entre eux (revenons à Pauling !) :
    – l’atome de carbone possède une grande versatilité car il est capable de former trois types de liaisons différentes (simples, doubles et triples) avec d’autres atomes (C, O, N, S, P …).
    Ceci parce que, d’un point de vue des energies en jeu de ses orbitales 2s et 2p, il a la capacité d’hybrider celles-ci en, respectivement, les orbitales hybrides sp3, sp2 et sp.
    – capacité que n’a pas, de ce même point de vue, celui de silicium dont les orbitales 3p sont plus étendues, et qui, à ma connaissance, n’offre que la possibilité de s’hybrider qu’en sp3.

    Ceci explique la très grande versatilité et donc fécondité des situations mettant en jeu le carbone : c’est tout le monde des molécules organiques et singulièrement celles en jeu dans
    le monde vivant, végétal comme animal que nous connaissons. Ce, alors qu’on ne trouve le silicium pour l’essentiel que dans le monde minéral (et faiblement dans le monde végétal).

    … Par ailleurs, alors que CO2 est un gaz, SiO2 est un solide ne fondant qu’à 730 degrés ! …

    Bernard Lamotte

    • Merci pour la précision sur les orbitales, c’est exactement le genre d’info qui me manquait !
      [je vais ajouter ça en complément]

  6. G. Trinquier Reply

    Sur les virus, il y a une bonne revue sur le sujet (bien qu’un un peu ancienne):  » Ten reasons to exclude viruses from the tree of life  » par D. Moreira and P. López-García,
    Nature Reviews Microbiology 2009, 7, 306. (https://www.nature.com/articles/nrmicro2108)

  7. Frédéric Harmand Reply

    A mon avis, on a tort de lier l’entropie à une mesure du désordre parce que selon le point de vue un système désordonné peut contenir peu d’info ou beaucoup, le désordre est plutôt une notion mal définie et ambiguë. Il vaut mieux lier l’entropie d’un système à la quantité d’information pour le décrire, ce qui est mesuré en nombre de bit ou au nombre de questions binaires oui/non pour le décrire. A partir de là, le 2nd principe de thermo qui dit que l’entropie d’un système s’accroît revient à dire que la quantité d’information pour le décrire (nombre de bit) diminue, sa description tend donc à se simplifier. Vu comme ça , un système vivant fait bizarrement le contraire effectivement , à chaque variation de son environnement, il va se complexifier et notamment son ADN contiendra de plus en plus d’informations (nombre de bit). J’ai hâte de voir comment David va aborder ce sujet.

    • « le 2nd principe de thermo qui dit que l’entropie d’un système s’accroît revient à dire que la quantité d’information pour le décrire (nombre de bit) diminue, sa description tend donc à se simplifier »

      Alors non, c’est plutôt l’inverse ! L’entropie d’un système, c’est la quantité d’information qu’il faut ajouter à la connaissance de son état macroscopique pour pouvoir connaître son état microscopique. On peut prendre l’exemple suivant (inspiré du modèle d’Ising) :
      Imaginez que j’ai 100 pièces de monnaie étalée sur une table, que chaque pièce sur « pile » compte +1 et chaque pièce sur « face » compte -1.
      Si je vous dit que la valeur totale est +100 (état macroscopique), la connaissance de ce fait suffit à vous donner une description complète de l’état micro : toutes les pièces sont sur pile. Aucune information à ajouter pour passer de la connaissance de l’état macro à celle de l’état micro : entropie nulle.
      Maintenant si je vous dit que la valeur totale est 0, vous savez que 50 pièces sont « pile » et 50 sont « face », mais aucune idée de laquelle est quoi. Il faut ajouter plein de bits d’information pour décrire l’état microscopique exact si on ne connaissait que l’état macro. Entropie élevée.

      • Frédéric Harmand Reply

        Je vous remercie de votre réponse, ça va permettre je l’espère de clarifier ces concepts très importants.
        Tout dépend comment on définit l’information.
        En théorie de l’info. au sens de Shannon, qui est la plus cohérente à mon sens, l’info=-log(p) où p est la proba d’un événement où de l’état d’un système.
        Par conséquent, plus la proba de l’événement est faible plus l’info associée à la réalisation de cet événement est grande et inversement, plus un événement est rare plus l’info associée est grande.
        Intuitivement, Si je vous dis que le soleil va se lever demain l’info. est quasi nulle par contre si je vous dis que le jour tant il va y avoir une éclipse de soleil, c’est une info.qui est loin d’être nulle.
        Je vais reprendre votre exemple des pièces en plus simple, prenons une pièce je la lance, et vous me demandez quel est le résultat pile ou face?
        si je vous réponds pile je vous apporte une info de 1 bit, on est d’accord? , la réalisation de l’événement vous apporte une info de 1 bit
        soit -log à base 2 de p=1/2 on est d’accord.
        Maintenant pour illustrer que l’état d’un syst se simplifie avec le temps, on peut reprendre cet exemple, soit une boîte à 2 compartiments l’un avec du gaz l’autre est vide, on laisse évoluer les choses.
        Le gaz va remplir les 2 compartiments. La situation initiale est plus complexe à décrire que la situation finale puisque il faut déjà indiquer
        où est le compartiment vide et le plein au départ, ce que l’on a pas à faire dans l’état final, ils sont à la fin semblables.
        On voit bien concrètement que l’état du syst s’est simplifié au cours du temps.
        Je pense que l’erreur vient de votre définition de l’info, vous établissez le gain d’info par rapport je cite « votre connaissance du syst »
        or votre connaissance du syst implique que vous possédez déjà une certaine quantité d’info. sur le système,
        vous dites je sais que la somme fait 100 et puis vous observez l’état micro correspondant évidemment
        le gain d’info est nul puisque vous savez d’avance que pour avoir 100 il n’ y a qu’un état micro possible.
        Je dirais compte tenu de ce que vous savez déjà, la proba de l’état micro est 1 donc log(1)=0 info=log(p=1) est nulle.
        En revanche si vous dites que la somme fait zéro, c’est certain que l’info associé à cette connaissance est moins grande, du coup
        il est certain que l’observation effective de l’état micro correspondant apportera beaucoup plus d’info. mais ça suppose qu’on puisse observer concrètement l’état micro, ce qui n’est jamais le cas quand on parle de milliard de milliard d’atomes.
        En résumé, je pense que votre definition de l’info est équivalente à celle de Shannon mais opposée et n’a pas vraiment d’intérêt pratique puisque en phys on calcule la proba d’un état macro avec des hyp sur les états micro mais qu’on a rarement la connaissance voir jamais (Heisenberg) de l’état micro.
        Et en tout état de cause la description d’un syst se simplifie effectivement toujours avec le temps au fur et à mesure que son entropie augmente.
        J’en profite pour dire que l’info ne se conserve pas et donc que le paradoxe de l’info des trous noir n’a pas de sens mis c’est un autre problème.

        Bien cordialement.

        • Je suis en respectueux désaccord 🙂 (votre approche donne dans le mauvais sens : haute entropie <=> basse information)
          L’entropie mesure la quantité d’information manquante entre la description avec des variables thermodynamiques macroscopiques et la description statistique microscopique, c’est l’équivalence entre l’entropie de Shannon et l’entropie de Boltzmann.
          Vous pouvez regarder quelques refs qui l’expliquent mieux que moi :
          http://materiel-physique.ens-lyon.fr/Logiciels/CD%20N°%203%20BUP%20DOC%20V%204.0/Disk%201/TEXTES/1998/0805D145.PDF
          https://users.lal.in2p3.fr/puzo/thermo/ch11_thermo.pdf

          • Harmand Frederic

            Ce respectueux désaccord, très très belle formule, montre bien à quel point ces concepts sont délicats et d’autant plus intéressants.
            Je vais faire une petite démonstration et vous me direz, si vous voulez, où ça coince.

            – 1 Prenons comme définition Inf(p)=-log(p) où p est la probabilité de l’état dans lequel se trouve le système. On est d’accord?

            – 2 On sait qu’un système, dans un état initial de probabilité p0, évolue toujours vers l’état le plus probable de probabilité pmax. On est d’accord?

            – 3 comme Inf(p0) est toujours supérieure à Inf(pmax) qui est le minimum de Inf(p), on en déduit que un système évolue toujours vers un état dont la quantité d’Info est minimale.

            – 4 Autrement dit un système tend toujours à se simplifier.

            Et c’est ce qu’on constate dans la réalité avec l’exemple du réservoir à 2 compartiments et le gaz qui finit par occuper les 2 compartiments.
            La situation initiale plus complexe (moins probable) évolue vers la situation finale la moins complexe (la plus probable).

            Lien avec l’entropie de Boltzmann:
            L’entropie de B. est, par définition, k (k est la constante de B.) fois le log du nombre N de configurations microscopiques qui correspondent à un état macro. donné.
            Plus le nombre N de conf. microscopique est grand plus l’entropie est grande et évidemment plus l’état macro correspondant est probable.
            D’où le lien entre maximum d’entropie et maximum de proba et minimum d’info.
            C’est là qu’il faut faire attention, l’Entropie croit avec N alors que l’Info décroit avec p,
            mais en fait l’Info et l’Entropie traduise le même comportement de la tendance à la simplification.
            Seulement, l’Entropie est fonction du nombre N de conf alors que l’Info est fonction de la proba p donc en gros l’inverse de N d’où un sentiment de confusion car on dit Inf(p)=Entropie(N), le comportement est le même c’est seulement la variable qui diffère.
            Schématiquement, si on trace l’évolution de l’Entropie en fonction de N on verra qu’elle croîtra vers un maximum d’où le 2nd principe par contre si on a trace en fonction de p ce qui correspond à l’info comme dans vos ref., on observera qu’elle sera décroissante vers in minimum.

            Je vois que ma definition de l’info correspond à celle de la self info donnée par wikipedia seulement en anglais
            https://en.wikipedia.org/wiki/Information_content#Definition
            Concernant la ref, le terme d’info manquante n’est expliqué nul part, il est repris à l’intro et à la conclusion par contre on est en phase concernant la def de l’info.
            Quant à la méthode de maximum d’entropie on voit bien qu’elle opère sur le nombre N et non sur la proba p.
            J’espère cet échange constructif. Encore Merci.
            Bien à vous.

          • (J’ai essayé de traduire le « I respectfully disagree » anglais 🙂 )
            Je crois que « là où ça coince », c’est le fait que vous attribuez des probabilités aux états macroscopiques, alors qu’en mécanique statistique on le fait avec les états microscopiques.
            Et on calcule donc l’information associée à un état macro comme la moyenne sur tous les états micro de l’information associée à chacun de ces états micros, donc
            $$\sum_i -p_i\log p_i$$.

  8. Lissajoux thomas Reply

    Nette et efficace comme expérience de pensée. Bravo !
    Néanmoins, je comprend le caractère ambigüe de la définition habituelle de l entropie (comme le « desordre » ci dessus, ou degré d incertitude). Il y a quelque chose de « méta » la dedans.
    Loin d’être spécialiste en thermodynamique, n’y a t il pas une définition plus scientifique, moins méta en tout cas ? L entropie semble être un concept, lui-même issus de concepts empiriques, as-t il seulement une réalité ? (Trop de philosophie je sais !)
    Bien sûr il y a le rapport à l energie, boltzmann clausius etc… mais ça reste assez obscur à mes yeux, est ce suffisant selon vous ? (Finalement on revient toujours à ça au final, c est déroutant ^^)
    Bon courage en tout cas, c est déjà ENORME !

  9. Bravo pour cette vidéo !
    Les concepts présentés ont le potentiel pour nous emmener très loin, et j’apprécie beaucoup le lien que vous faites avec la crise entropique/énergétique. Si je peux formuler un souhait pour le prochain épisode, ce serait d’arriver à fermer la boucle entre « qu’est-ce que la vie » et « la crise entropique ».
    Je pense qu’il y a pas mal de choses qui pourraient être analysés concernant l’action de la vie sur l’entropie, ce que cela peut signifier sur les perspectives d’évolution du système Terre (en lien avec la crise énergétique /entropique), et ce que cela impliquerait comme principes philosophiques à appliquer aux organisations humaines : une référence pourrait être faite ici aux travaux de Bernard Stiegler sur la neguentropie.
    Bon .. je ne sais pas dans quelle mesure tout cela est réaliste, mais ce qui est sûr est que j’attend le prochain épisode avec grand intérêt, encore bravo pour la très grande qualité de ces vidéos !

  10. Harmand Frederic Reply

    Cette notion d’entropie et d’information touche d’autres domaines de la physique. Voir la théorie extraordinaire de Erik Verlinde pour expliquer la loi de Newton et la Gravitation à partir de l’information:
    « On the Origin of Gravity and the Laws of Newton  » https://arxiv.org/pdf/1001.0785.pdf

Write A Comment

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.