{"id":9887,"date":"2025-04-25T17:02:00","date_gmt":"2025-04-25T15:02:00","guid":{"rendered":"https:\/\/scienceetonnante.com\/blog\/?p=9887"},"modified":"2025-04-28T07:49:29","modified_gmt":"2025-04-28T05:49:29","slug":"les-4-etapes-pour-entrainer-un-llm","status":"publish","type":"post","link":"https:\/\/scienceetonnante.com\/blog\/2025\/04\/25\/les-4-etapes-pour-entrainer-un-llm\/","title":{"rendered":"Les 4 \u00e9tapes pour entrainer un LLM"},"content":{"rendered":"\n<p>La vid\u00e9o du jour passe en revue les diff\u00e9rentes \u00e9tapes et m\u00e9thodes de machine learning que l&rsquo;on mobilise pour entrainer un LLM, et on se demande ce qu&rsquo;a bien pu faire l&rsquo;entreprise chinoise DeepSeek pour prendre tout le monde de vitesse.<\/p>\n\n\n\n<figure class=\"wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio\"><div class=\"wp-block-embed__wrapper\">\n<iframe title=\"Les 4 \u00e9tapes pour entrainer un LLM\" width=\"770\" height=\"433\" data-src=\"https:\/\/www.youtube.com\/embed\/YcIbZGTRMjI?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen src=\"data:image\/svg+xml;base64,PHN2ZyB3aWR0aD0iMSIgaGVpZ2h0PSIxIiB4bWxucz0iaHR0cDovL3d3dy53My5vcmcvMjAwMC9zdmciPjwvc3ZnPg==\" class=\"lazyload\" data-load-mode=\"1\"><\/iframe>\n<\/div><\/figure>\n\n\n\n<p>Si la vid\u00e9o vous a int\u00e9ress\u00e9 et que vous souhaitez aller plus loin, commen\u00e7ons par deux sources qui m&rsquo;ont \u00e9t\u00e9 tr\u00e8s utiles : <\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>L&rsquo;article sur le mod\u00e8le T\u00fcl\u00fc 3, un mod\u00e8le v\u00e9ritablement open-source dans lequel absolument tous les d\u00e9tails de la proc\u00e9dure de fine-tuning ont \u00e9t\u00e9 document\u00e9s :  <a href=\"https:\/\/arxiv.org\/abs\/2411.15124\" target=\"_blank\" rel=\"noopener\">Tulu 3: Pushing Frontiers in Open Language Model Post-Training<\/a><\/li>\n\n\n\n<li>Les vid\u00e9os de <a href=\"https:\/\/www.youtube.com\/@juliaturc1\" target=\"_blank\" rel=\"noopener\">la cha\u00eene Youtube de Julia Turc<\/a>, une cha\u00eene toute r\u00e9cente mais dont les contenus sont remarquables de p\u00e9dagogie et de pr\u00e9cision. <\/li>\n<\/ul>\n\n\n\n<p>Vous avez sans doute remarqu\u00e9 que j&rsquo;ai plusieurs fois utilis\u00e9 la plateforme <a href=\"http:\/\/hyperbolic.xyz\" target=\"_blank\" rel=\"noopener\">hyperbolic.xyz<\/a>. Je n&rsquo;ai pas de lien avec eux \u00e9videmment, mais j&rsquo;ai connu son existence gr\u00e2ce \u00e0 une vid\u00e9o d&rsquo;Andrej Karpathy (autre super source !). C&rsquo;est une plateforme qui permet (moyennant quelques euros sur un compte) d&rsquo;avoir acc\u00e8s en inf\u00e9rence \u00e0 un grand nombre de mod\u00e8les open-source, notamment LLAMA 3.1 BASE, un des mod\u00e8les pr\u00e9-entrain\u00e9s les plus r\u00e9cents parmi les mod\u00e8les de grande taille les plus en vogue.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Un peu de vocabulaire<\/h3>\n\n\n\n<p>Quelques pr\u00e9cisions de vocabulaire pour commencer. Pour faire simple, j&rsquo;ai fait expr\u00e8s de m&rsquo;en tenir \u00e0 parler de \u00ab\u00a0mot\u00a0\u00bb plut\u00f4t que de \u00ab\u00a0token\u00a0\u00bb. Si vous \u00eates arriv\u00e9s jusque l\u00e0 j&rsquo;imagine que vous l&rsquo;avez not\u00e9 et que vous me pardonnerez cette simplification ! <\/p>\n\n\n\n<p>Autre terme que j&rsquo;ai utilis\u00e9 un peu abusivement, c&rsquo;est celui <em>d&rsquo;open-source.<\/em> La plupart des mod\u00e8les \u00ab\u00a0open\u00a0\u00bb sont en r\u00e9alit\u00e9 surtout <em>open-weights<\/em>, cela signifie que l&rsquo;architecture exacte (nombre de couches, de neurones, etc.) est publique, et que les valeurs des param\u00e8tres (les poids) sont \u00e9galement publiques et librement t\u00e9l\u00e9chargeables. Pour autant cela ne signifie pas toujours que l&rsquo;usage du mod\u00e8le soit rattach\u00e9 \u00e0 une licence open-source ou une autre. De surcroit, \u00e7a ne veut pas dire non plus que la d\u00e9marche soit totalement reproductible puisque les d\u00e9tails des donn\u00e9es et des proc\u00e9dures d&rsquo;entrainement sont en g\u00e9n\u00e9ral gard\u00e9s secrets. A cet \u00e9gard, T\u00fcl\u00fc3 dont je parle au-dessus est probablement le meilleur mod\u00e8le v\u00e9ritablement open-source disponible : tout est parfaitement document\u00e9.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Les mod\u00e8les pr\u00e9entrain\u00e9s<\/h3>\n\n\n\n<p>J&rsquo;ai parl\u00e9 plusieurs fois du fait que les mod\u00e8les pr\u00e9-entrain\u00e9s semblaient atteindre une limite avec l&rsquo;utilisation de l&rsquo;ensemble des donn\u00e9es d\u00e9j\u00e0 disponibles. Il existe une loi empirique appel\u00e9e <strong><a href=\"https:\/\/arxiv.org\/abs\/2203.15556\" target=\"_blank\" rel=\"noopener\">Loi de Chinchilla<\/a><\/strong> et mise au point par les chercheurs de DeepMind \u00e0 l&rsquo;aide de la famille de LLM qui porte ce nom. Ils ont montr\u00e9 que pour une taille de mod\u00e8le donn\u00e9e, il existe une taille optimale de l&rsquo;ensemble d&rsquo;entrainement, que l&rsquo;on peut en gros r\u00e9sumer par une r\u00e8gle simple du genre \u00ab\u00a0<em>20 fois plus de tokens que de param\u00e8tres\u00a0\u00bb<\/em><\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img decoding=\"async\" width=\"1024\" height=\"461\" data-src=\"https:\/\/scienceetonnante.com\/blog\/wp-content\/uploads\/2025\/04\/Capture-decran-2025-04-25-a-07.31.27-1024x461.png\" alt=\"\" class=\"wp-image-9891 lazyload\" data-srcset=\"https:\/\/scienceetonnante.com\/blog\/wp-content\/uploads\/2025\/04\/Capture-decran-2025-04-25-a-07.31.27-1024x461.png 1024w, https:\/\/scienceetonnante.com\/blog\/wp-content\/uploads\/2025\/04\/Capture-decran-2025-04-25-a-07.31.27-300x135.png 300w, https:\/\/scienceetonnante.com\/blog\/wp-content\/uploads\/2025\/04\/Capture-decran-2025-04-25-a-07.31.27-768x346.png 768w, https:\/\/scienceetonnante.com\/blog\/wp-content\/uploads\/2025\/04\/Capture-decran-2025-04-25-a-07.31.27.png 1412w\" data-sizes=\"(max-width: 1024px) 100vw, 1024px\" src=\"data:image\/svg+xml;base64,PHN2ZyB3aWR0aD0iMSIgaGVpZ2h0PSIxIiB4bWxucz0iaHR0cDovL3d3dy53My5vcmcvMjAwMC9zdmciPjwvc3ZnPg==\" style=\"--smush-placeholder-width: 1024px; --smush-placeholder-aspect-ratio: 1024\/461;\" \/><\/figure>\n\n\n\n<p>A l&rsquo;\u00e9poque de la publication du papier (mars 2022), leur argument \u00e9tait que les mod\u00e8les de l&rsquo;\u00e9poque \u00e9taient bien trop gros pour la quantit\u00e9 de donn\u00e9es qu&rsquo;on leur servait en guise de pr\u00e9-entrainement.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img decoding=\"async\" width=\"1024\" height=\"406\" data-src=\"https:\/\/scienceetonnante.com\/blog\/wp-content\/uploads\/2025\/04\/Capture-decran-2025-04-25-a-07.33.46-1024x406.png\" alt=\"\" class=\"wp-image-9892 lazyload\" data-srcset=\"https:\/\/scienceetonnante.com\/blog\/wp-content\/uploads\/2025\/04\/Capture-decran-2025-04-25-a-07.33.46-1024x406.png 1024w, https:\/\/scienceetonnante.com\/blog\/wp-content\/uploads\/2025\/04\/Capture-decran-2025-04-25-a-07.33.46-300x119.png 300w, https:\/\/scienceetonnante.com\/blog\/wp-content\/uploads\/2025\/04\/Capture-decran-2025-04-25-a-07.33.46-768x305.png 768w, https:\/\/scienceetonnante.com\/blog\/wp-content\/uploads\/2025\/04\/Capture-decran-2025-04-25-a-07.33.46.png 1402w\" data-sizes=\"(max-width: 1024px) 100vw, 1024px\" src=\"data:image\/svg+xml;base64,PHN2ZyB3aWR0aD0iMSIgaGVpZ2h0PSIxIiB4bWxucz0iaHR0cDovL3d3dy53My5vcmcvMjAwMC9zdmciPjwvc3ZnPg==\" style=\"--smush-placeholder-width: 1024px; --smush-placeholder-aspect-ratio: 1024\/406;\" \/><\/figure>\n\n\n\n<p>On voit que 3 ans plus tard, les auteurs avaient certainement raison puisque les mod\u00e8les ont grossi moins vite que les donn\u00e9es d&rsquo;entrainement : un mod\u00e8le comme DeepSeek n&rsquo;a <em>que<\/em> 600 milliards de param\u00e8tres, pour 15000 milliards de tokens pour le pr\u00e9training.<\/p>\n\n\n\n<p>Une des conclusions que l&rsquo;on pourrait tirer de l&rsquo;histoire de DeepSeek et de l&rsquo;\u00e9mergence du RLVR, c&rsquo;est que les mod\u00e8les de fondation sont probablement proches de leur taille maximale. <strong>A-t-on vraiment besoin d&rsquo;un GPT-5 ?<\/strong> Peut-\u00eatre, mais on ne parierait pas forc\u00e9ment sur un GPT-6.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Et le RLHF alors ?<\/h3>\n\n\n\n<p>Vous avez peut-\u00eatre remarqu\u00e9 que dans la vid\u00e9o, j&rsquo;esquive soigneusement le terme de <em>Reinforcement Learning with Human Feedback<\/em>. Je r\u00e9serve la notion de renforcement au raisonnement, et j&rsquo;ai escamot\u00e9 le fait que le fine-tuning par les pr\u00e9f\u00e9rences pratiqu\u00e9 par OpenAI faisait intervenir du Reinforcement Learning (RL). J&rsquo;ai ainsi surtout insist\u00e9 sur la m\u00e9thode DPO qui est permet de faire du fine-tuning par les pr\u00e9f\u00e9rences mais qui n&rsquo;est pas une m\u00e9thode de RL !<\/p>\n\n\n\n<p>Alors pourquoi ne pas parler du RLHF ? La raison est qu&rsquo;avec le recul, ce type de RL \u00e9tait vraiment une version minimale de RL, assez \u00e9loign\u00e9e de ce qu&rsquo;on avait connu avec le Go. Il n&rsquo;y a pas que moi qui le dit, Andrej Karpathy d\u00e9clare aussi <em>\u00ab\u00a0RLHF is barely RL\u00a0\u00bb. <\/em><\/p>\n\n\n<div class=\"wp-block-image\">\n<figure class=\"aligncenter size-large is-resized\"><img decoding=\"async\" width=\"763\" height=\"1024\" data-src=\"https:\/\/scienceetonnante.com\/blog\/wp-content\/uploads\/2025\/04\/RLHF-barely-RL-763x1024.png\" alt=\"\" class=\"wp-image-9893 lazyload\" style=\"--smush-placeholder-width: 763px; --smush-placeholder-aspect-ratio: 763\/1024;width:473px;height:auto\" data-srcset=\"https:\/\/scienceetonnante.com\/blog\/wp-content\/uploads\/2025\/04\/RLHF-barely-RL-763x1024.png 763w, https:\/\/scienceetonnante.com\/blog\/wp-content\/uploads\/2025\/04\/RLHF-barely-RL-224x300.png 224w, https:\/\/scienceetonnante.com\/blog\/wp-content\/uploads\/2025\/04\/RLHF-barely-RL-768x1030.png 768w, https:\/\/scienceetonnante.com\/blog\/wp-content\/uploads\/2025\/04\/RLHF-barely-RL-1145x1536.png 1145w, https:\/\/scienceetonnante.com\/blog\/wp-content\/uploads\/2025\/04\/RLHF-barely-RL.png 1218w\" data-sizes=\"(max-width: 763px) 100vw, 763px\" src=\"data:image\/svg+xml;base64,PHN2ZyB3aWR0aD0iMSIgaGVpZ2h0PSIxIiB4bWxucz0iaHR0cDovL3d3dy53My5vcmcvMjAwMC9zdmciPjwvc3ZnPg==\" \/><\/figure><\/div>\n\n\n<p>Un autre argument du m\u00eame genre a \u00e9t\u00e9 donn\u00e9 r\u00e9cemment par David Silver (un des auteurs d&rsquo;AlphaGo) dans <a href=\"https:\/\/www.youtube.com\/watch?v=zzXyPGEtseI\" target=\"_blank\" rel=\"noopener\">le podcast d&rsquo;Hannah Fry<\/a>. Il dit en gros que le RLHF n&rsquo;est pas aussi bien enracin\u00e9 (<em>grounded<\/em>) que le vrai RL. Il dit que <strong>faire du RLHF, c&rsquo;est comme demander \u00e0 un humain s&rsquo;il pense qu&rsquo;une recette de tarte aux pommes semble correcte, alors que le RL c&rsquo;est cuisiner vraiment la tarte et la go\u00fbter<\/strong>.<\/p>\n\n\n\n<p>Le fait de passer sous silence le RL dans la mise au point d&rsquo;InstructGPT et ChatGPT fait que je n&rsquo;ai pas compl\u00e8tement d\u00e9taill\u00e9 l&rsquo;id\u00e9e de PPO, la <em>Proximal Policy Optimisation<\/em>. Il s&rsquo;agit en fait d&rsquo;une m\u00e9thode de RL de type <em>policy gradient<\/em> (le LLM est vu comme un g\u00e9n\u00e9rateur de politique, et on essaye d&rsquo;apprendre la <em>politique<\/em>, c&rsquo;est-\u00e0-dire la distribution de probabilit\u00e9 des meilleurs coups \u00e0 jouer en fonction d&rsquo;une situation donn\u00e9e) tout en essayant de ne pas s&rsquo;\u00e9loigner trop de la politique initiale, de fa\u00e7on \u00e0 ce que l&rsquo;\u00e9tape de RL ne se transforme pas en une r\u00e9\u00e9criture compl\u00e8te (d&rsquo;o\u00f9 le terme de <em>proximal<\/em>). <\/p>\n\n\n\n<p>La m\u00e9thode GRPO fait \u00e7a aussi (je vous renvoie \u00e0 l&rsquo;excellente vid\u00e9o de Julia Turc) mais sa principale diff\u00e9rence r\u00e9side dans le fait que PPO \u00e9tait une m\u00e9thode de RL de type <em>actor\/critic<\/em>, alors que GRPO n&rsquo;a pas besoin de <em>critic<\/em>. Sans entrer dans les d\u00e9tails (faudra que je fasse un \u00e9pisode sp\u00e9cial RL un jour), le <em>critic<\/em> est un mod\u00e8le auxiliaire charg\u00e9 d&rsquo;attribuer une \u00e9valuation \u00e0 une position donn\u00e9e (par exemple dans un jeu), pour quantifier \u00e0 quel point cette position semble int\u00e9ressante. C&rsquo;est une m\u00e9thode qui permet de mesurer si un choix donn\u00e9 a permis d&rsquo;obtenir un r\u00e9sultat meilleur que ce que l&rsquo;on pensait avant (on dit qu&rsquo;il a conf\u00e9r\u00e9 un <em>avantage<\/em>). C&rsquo;est une fa\u00e7on de faire qui a donn\u00e9 plein de succ\u00e8s en RL mais qui n\u00e9cessite l&rsquo;entrainement d&rsquo;un mod\u00e8le auxiliaire charg\u00e9 de faire le <em>critic<\/em>, ce qui peut s&rsquo;av\u00e9rer tr\u00e8s lourd. Dans le cas des LLMs, c&rsquo;est en gros un second LLM de taille comparable au premier. La m\u00e9thode GRPO de DeepSeek a court-circuit\u00e9 cette \u00e9tape en disant qu&rsquo;<strong>un coup conf\u00e8re un avantage s&rsquo;il permet d&rsquo;obtenir un r\u00e9sultat meilleur que la moyenne du groupe<\/strong>. Malin !<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">DeepSeek et le RLVR<\/h3>\n\n\n\n<p>Bien qu&rsquo;on en parle moins, je trouve vraiment remarquable ce qu&rsquo;a fait DeepSeek avec DeepSeek-R1-Zero, le mod\u00e8le qui n&rsquo;a subit que du RLVR. Cela peut sembler \u00e9tonnant qu&rsquo;il n&rsquo;ait m\u00eame pas subi de fine-tuning supervis\u00e9, mais une chose explique cela : <strong>dans le mod\u00e8le de r\u00e9compense v\u00e9rifiable, il n&rsquo;y a pas que la r\u00e9ponse finale qui compte, mais aussi la qualit\u00e9 de la mise en forme<\/strong>. Donc le RLVR r\u00e9compense les r\u00e9ponses qui se pr\u00e9sente sous la forme structur\u00e9e d&rsquo;un dialogue entre un utilisateur et un assistant. C&rsquo;est \u00e7a qui permet d&rsquo;apprendre au mod\u00e8le \u00e0 se comporter en assistant, sans lui avoir montr\u00e9 explicitement d&rsquo;exemple. Je n&rsquo;ai pas eu l&rsquo;occasion d&rsquo;essayer ce mod\u00e8le l\u00e0 (je crois qu&rsquo;il est aussi open-source), mais il y a fort \u00e0 parier qu&rsquo;il est probablement assez mal align\u00e9 du point de vue \u00e9thique et s\u00e9curit\u00e9.<\/p>\n\n\n\n<p>Un point amusant du papier de DeepSeek que je n&rsquo;ai pas mentionn\u00e9, c&rsquo;est que plus on entraine le mod\u00e8le avec du RLVR, plus les temps de r\u00e9flexion s&rsquo;allongent naturellement. Le mod\u00e8le d\u00e9couvre par le RL qu&rsquo;augmenter la longueur du raisonnement conduit \u00e0 de meilleurs r\u00e9sultats.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img decoding=\"async\" width=\"1024\" height=\"564\" data-src=\"https:\/\/scienceetonnante.com\/blog\/wp-content\/uploads\/2025\/04\/Capture-decran-2025-04-25-a-07.56.34-1024x564.png\" alt=\"\" class=\"wp-image-9894 lazyload\" data-srcset=\"https:\/\/scienceetonnante.com\/blog\/wp-content\/uploads\/2025\/04\/Capture-decran-2025-04-25-a-07.56.34-1024x564.png 1024w, https:\/\/scienceetonnante.com\/blog\/wp-content\/uploads\/2025\/04\/Capture-decran-2025-04-25-a-07.56.34-300x165.png 300w, https:\/\/scienceetonnante.com\/blog\/wp-content\/uploads\/2025\/04\/Capture-decran-2025-04-25-a-07.56.34-768x423.png 768w, https:\/\/scienceetonnante.com\/blog\/wp-content\/uploads\/2025\/04\/Capture-decran-2025-04-25-a-07.56.34-1536x846.png 1536w, https:\/\/scienceetonnante.com\/blog\/wp-content\/uploads\/2025\/04\/Capture-decran-2025-04-25-a-07.56.34.png 1682w\" data-sizes=\"(max-width: 1024px) 100vw, 1024px\" src=\"data:image\/svg+xml;base64,PHN2ZyB3aWR0aD0iMSIgaGVpZ2h0PSIxIiB4bWxucz0iaHR0cDovL3d3dy53My5vcmcvMjAwMC9zdmciPjwvc3ZnPg==\" style=\"--smush-placeholder-width: 1024px; --smush-placeholder-aspect-ratio: 1024\/564;\" \/><\/figure>\n\n\n\n<p>Enfin pour finir, dernier point que je n&rsquo;ai pas \u00e9voqu\u00e9, c&rsquo;est la distillation. Cela m\u00e9riterait un traitement particulier mais DeepSeek a \u00e9videmment distill\u00e9 une partie de ses mod\u00e8les, et (si j&rsquo;ai bien suivi) a m\u00eame utilis\u00e9 son mod\u00e8le R1 pour distiller des petits mod\u00e8les \u00ab\u00a0concurrents\u00a0\u00bb (Qwen et Llama !).<\/p>\n","protected":false},"excerpt":{"rendered":"<p>La vid\u00e9o du jour passe en revue les diff\u00e9rentes \u00e9tapes et m\u00e9thodes de machine learning que l&rsquo;on mobilise pour entrainer un LLM, et on se demande ce qu&rsquo;a bien pu faire l&rsquo;entreprise chinoise DeepSeek pour prendre tout le monde de vitesse. Si la vid\u00e9o vous a int\u00e9ress\u00e9 et que vous souhaitez aller plus loin, commen\u00e7ons<\/p>\n","protected":false},"author":1,"featured_media":9889,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"jetpack_post_was_ever_published":false,"_jetpack_newsletter_access":"","_jetpack_dont_email_post_to_subs":false,"_jetpack_newsletter_tier_id":0,"_jetpack_memberships_contains_paywalled_content":false,"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[45],"tags":[113],"class_list":{"0":"post-9887","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-informatique","8":"tag-intelligence-artificielle"},"jetpack_featured_media_url":"https:\/\/scienceetonnante.com\/blog\/wp-content\/uploads\/2025\/04\/blog-1.png","jetpack_sharing_enabled":true,"post_mailing_queue_ids":[],"_links":{"self":[{"href":"https:\/\/scienceetonnante.com\/blog\/wp-json\/wp\/v2\/posts\/9887","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/scienceetonnante.com\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/scienceetonnante.com\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/scienceetonnante.com\/blog\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/scienceetonnante.com\/blog\/wp-json\/wp\/v2\/comments?post=9887"}],"version-history":[{"count":6,"href":"https:\/\/scienceetonnante.com\/blog\/wp-json\/wp\/v2\/posts\/9887\/revisions"}],"predecessor-version":[{"id":9902,"href":"https:\/\/scienceetonnante.com\/blog\/wp-json\/wp\/v2\/posts\/9887\/revisions\/9902"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/scienceetonnante.com\/blog\/wp-json\/wp\/v2\/media\/9889"}],"wp:attachment":[{"href":"https:\/\/scienceetonnante.com\/blog\/wp-json\/wp\/v2\/media?parent=9887"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/scienceetonnante.com\/blog\/wp-json\/wp\/v2\/categories?post=9887"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/scienceetonnante.com\/blog\/wp-json\/wp\/v2\/tags?post=9887"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}