{"id":566590,"date":"2025-05-12T15:14:57","date_gmt":"2025-05-12T14:14:57","guid":{"rendered":"https:\/\/blog.jetbrains.com\/?post_type=ai&#038;p=566590"},"modified":"2025-05-12T15:15:02","modified_gmt":"2025-05-12T14:15:02","slug":"mellum-devient-open-source-un-llm-specialement-concu-pour-les-developpeurs-maintenant-sur-hugging-face","status":"publish","type":"ai","link":"https:\/\/blog.jetbrains.com\/fr\/ai\/2025\/05\/mellum-devient-open-source-un-llm-specialement-concu-pour-les-developpeurs-maintenant-sur-hugging-face\/","title":{"rendered":"Mellum devient open source\u00a0: un LLM sp\u00e9cialement con\u00e7u pour les d\u00e9veloppeurs, maintenant sur Hugging Face"},"content":{"rendered":"<p>Mellum n&#8217;a pas vocation \u00e0 tout savoir et tout faire. Il est con\u00e7u pour effectuer un type de t\u00e2che et le faire vraiment bien, \u00e0 savoir la saisie semi-automatique du code. C&#8217;est ce que nous appelons un <strong>mod\u00e8le focal<\/strong>\u00a0: un mod\u00e8le disposant d&#8217;une expertise cibl\u00e9e et con\u00e7u pour un usage sp\u00e9cifique, ne cherchant pas \u00e0 couvrir tous les domaines.<\/p>\n<p>Mais la saisie semi-automatique de code n&#8217;est qu&#8217;un d\u00e9but.<\/p>\n<p>L&#8217;\u00e9volution de Mellum va consister dans le d\u00e9veloppement d&#8217;un ensemble de mod\u00e8les focaux dont chacun sera sp\u00e9cialis\u00e9 dans la r\u00e9alisation d&#8217;une t\u00e2che diff\u00e9rente, de la saisie semi-automatique de code \u00e0 la pr\u00e9diction de diff et au-del\u00e0.<\/p>\n<p>Le mod\u00e8le de base est d\u00e9sormais open source et disponible sur <a href=\"https:\/\/huggingface.co\/JetBrains\/Mellum-4b-base\" target=\"_blank\" rel=\"noreferrer noopener\">Hugging Face<\/a>. Que vous vouliez cr\u00e9er des outils ou faire des exp\u00e9riences pour des recherches, ou que vous soyez simplement curieux, vous aurez un acc\u00e8s complet \u00e0 un mod\u00e8le multilingue rapide*.<\/p>\n<p><em>*Mellum prend en charge la saisie semi-automatique de code pour Java, Kotlin, Python, Go, PHP, C, C++, C#, JavaScript, TypeScript, CSS, HTML, Rust et Ruby.\u00a0<\/em><\/p>\n<h2 class=\"wp-block-heading\">? Pourquoi rendre Mellum open source\u00a0?<\/h2>\n<p>Cette question a fait l&#8217;objet de nombreuses discussions en interne.<\/p>\n<p>Mellum n&#8217;est pas qu&#8217;une simple version am\u00e9lior\u00e9e d&#8217;un mod\u00e8le open source. C&#8217;est un mod\u00e8le que nous avons entra\u00een\u00e9 \u00e0 partir de z\u00e9ro pour alimenter la compl\u00e9tion de code bas\u00e9e sur le cloud dans les IDE JetBrains et <a href=\"https:\/\/blog.jetbrains.com\/fr\/blog\/2024\/10\/30\/decouvrez-mellum-le-nouveau-llm-de-jetbrains-concu-pour-les-developpeurs\/\" target=\"_blank\" rel=\"noreferrer noopener\">mis en disposition g\u00e9n\u00e9rale l&#8217;ann\u00e9e derni\u00e8re<\/a>. C&#8217;est aussi le premier d&#8217;une future gamme de mod\u00e8les sp\u00e9cialis\u00e9s dans la r\u00e9alisation de t\u00e2ches de programmation.<\/p>\n<p>Alors pourquoi avoir finalement opt\u00e9 pour l&#8217;open source\u00a0?<\/p>\n<p>Parce que nous croyons en la transparence et en la puissance de la collaboration et du partage du progr\u00e8s. De Linux \u00e0 Git, en passant par Node.js et Docker, l&#8217;open source est \u00e0 l&#8217;origine de plusieurs des avanc\u00e9es technologiques les plus importantes. <a href=\"https:\/\/huggingface.co\/spaces\/opencompass\/open_vlm_leaderboard\" target=\"_blank\" rel=\"noreferrer noopener\">Les LLM open source surpassant d\u00e9sormais certains des mod\u00e8les de leaders du secteur<\/a>, on peut raisonnablement supposer que l&#8217;\u00e9volution g\u00e9n\u00e9rale de l&#8217;IA pourrait suivre une trajectoire similaire.<\/p>\n<p>Mellum n&#8217;est pas une solution plug-and-play. En le publiant sur <a href=\"https:\/\/huggingface.co\/JetBrains\/Mellum-4b-base\" target=\"_blank\" rel=\"noreferrer noopener\">Hugging Face<\/a>, nous offrons aux chercheurs, aux enseignants et aux \u00e9quipes, l&#8217;opportunit\u00e9 d&#8217;explorer les rouages et le fonctionnement d&#8217;un mod\u00e8le con\u00e7u pour un usage sp\u00e9cifique.\u00a0<\/p>\n<h2 class=\"wp-block-heading\">Qu&#8217;est-ce qu&#8217;un mod\u00e8le focal\u00a0?<\/h2>\n<p>Dans le domaine du machine learning, la sp\u00e9cialisation n&#8217;est pas une nouveaut\u00e9 : il s&#8217;agit d&#8217;une approche fondamentale qui a guid\u00e9 la conception de mod\u00e8les depuis des d\u00e9cennies, avec des mod\u00e8les con\u00e7us pour r\u00e9soudre des t\u00e2ches sp\u00e9cifiques de mani\u00e8re efficace et efficiente. En cours de route, les mod\u00e8les \u00e0 usage g\u00e9n\u00e9ral cherchant \u00e0 pouvoir tout faire ont connu un essor significatif, engendrant souvent des co\u00fbts \u00e9normes en mati\u00e8re de calculs et d&#8217;impact environnemental.\u00a0<\/p>\n<p>Les mod\u00e8les focaux reviennent \u00e0 ce principe originel\u00a0: cr\u00e9er des mod\u00e8les permettant d&#8217;exceller dans un domaine.<\/p>\n<p>Les mod\u00e8les focaux s&#8217;appuient sur le mod\u00e8le de comp\u00e9tences en\u00a0 T : un concept dans lequel une personne poss\u00e8de une compr\u00e9hension large sur de nombreux sujets (la barre sup\u00e9rieure horizontale du T repr\u00e9sentant l&#8217;<em>\u00e9tendue<\/em> de ses connaissances), mais une expertise approfondie dans un seul domaine sp\u00e9cifique (la barre verticale du T repr\u00e9sentant la <em>profondeur<\/em>). Ils ne sont pas con\u00e7us pour tout traiter mais pour \u00eatre sp\u00e9cialis\u00e9s et exceller dans la r\u00e9alisation d&#8217;un type de t\u00e2che, pour laquelle l&#8217;expertise apporte vraiment de la valeur.\u00a0<\/p>\n<p>Mellum en est un bon exemple. Il s&#8217;agit d&#8217;un petit mod\u00e8le efficace con\u00e7u sp\u00e9cifiquement pour les t\u00e2ches li\u00e9es au code, \u00e0 commencer par la saisie semi-automatique de code.<\/p>\n<p>Pourquoi avons-nous adopt\u00e9 cette approche\u00a0? Parce que tous les probl\u00e8mes ne requi\u00e8rent pas une solution g\u00e9n\u00e9raliste et que toutes les \u00e9quipes n&#8217;ont pas besoin d&#8217;ex\u00e9cuter de grands mod\u00e8les ou les ressources pour le faire.<\/p>\n<p>Les mod\u00e8les focaux comme Mellum offrent des avantages \u00e9vidents\u00a0:<\/p>\n<ul>\n<li>Pr\u00e9cision sp\u00e9cialement pens\u00e9e pour les t\u00e2ches sp\u00e9cifiques \u00e0 un domaine<\/li>\n<li>Optimisation des co\u00fbts d&#8217;ex\u00e9cution et de d\u00e9ploiement<\/li>\n<li>R\u00e9duction des besoins en calcul et de l&#8217;empreinte carbone<\/li>\n<li>Plus grande accessibilit\u00e9 pour les chercheurs, les enseignants et les petites \u00e9quipes<\/li>\n<\/ul>\n<p>Ce n&#8217;est pas un pas en arri\u00e8re\u00a0: il s&#8217;agit d&#8217;appliquer des principes de sp\u00e9cialisation \u00e9prouv\u00e9s aux enjeux actuels de l&#8217;IA. Nous consid\u00e9rons cette approche comme plus intelligente.<\/p>\n<h2 class=\"wp-block-heading\">Quelles sont les performances de Mellum\u00a0?<\/h2>\n<p>Mellum est un <a href=\"https:\/\/huggingface.co\/JetBrains\/Mellum-4b-base\" target=\"_blank\" rel=\"noreferrer noopener\">mod\u00e8le multilangage \u00e0 4\u00a0milliards de param\u00e8tres<\/a>, optimis\u00e9 sp\u00e9cifiquement pour la saisie semi-automatique du code. Nous l&#8217;avons \u00e9valu\u00e9 sur plusieurs ensembles de donn\u00e9es en plusieurs langages, et avons \u00e9galement effectu\u00e9 des \u00e9valuations humaines approfondies dans les IDE JetBrains. Vous trouverez dans cet article une comparaison de plusieurs donn\u00e9es d&#8217;\u00e9valuation de Mellum avec celles de mod\u00e8les plus grands. Tous les d\u00e9tails, les r\u00e9sultats et les comparaisons sont disponibles sur la fiche produit du mod\u00e8le.<\/p>\n<figure class=\"wp-block-table\">\n<table>\n<tbody>\n<tr>\n<td rowspan=\"2\">\u00a0<\/td>\n<td colspan=\"2\">HumanEval Infilling<\/td>\n<td rowspan=\"2\">RepoBench\u00a01.1 (contexte\u00a02K, py)<\/td>\n<td rowspan=\"2\">SAFIM (moy.)<\/td>\n<\/tr>\n<tr>\n<td>une seule ligne<\/td>\n<td>multiligne<\/td>\n<\/tr>\n<tr>\n<td>Mellum-4B-base<\/td>\n<td>66,2<\/td>\n<td>38,5<\/td>\n<td>28,2<\/td>\n<td>38,1<\/td>\n<\/tr>\n<tr>\n<td>InCoder-6B<\/td>\n<td>69,0<\/td>\n<td>38,6<\/td>\n<td>\u2014<\/td>\n<td>33,8<\/td>\n<\/tr>\n<tr>\n<td>CodeLlama-7B-base<\/td>\n<td>83,0<\/td>\n<td>50,8<\/td>\n<td>34,1<\/td>\n<td>45,0<\/td>\n<\/tr>\n<tr>\n<td>CodeLlama-13B-base<\/td>\n<td>85,6<\/td>\n<td>56,1<\/td>\n<td>36,2<\/td>\n<td>52,8<\/td>\n<\/tr>\n<tr>\n<td>DeepSeek-Coder-6.7B<\/td>\n<td>80,7<\/td>\n<td>\u2014<\/td>\n<td>\u2014<\/td>\n<td>63,4<\/td>\n<\/tr>\n<\/tbody>\n<\/table>\n<\/figure>\n<h2 class=\"wp-block-heading\">\u00c0 qui Mellum est destin\u00e9 (et \u00e0 qui ne l&#8217;est-il pas)<\/h2>\n<p>Soyons r\u00e9alistes : nous ne nous attendons \u00e9videmment pas \u00e0 ce que tout d\u00e9veloppeur voit un int\u00e9r\u00eat \u00e0 affiner ou \u00e0 d\u00e9ployer Mellum.<\/p>\n<p>La version actuelle de Mellum sur Hugging Face est avant tout destin\u00e9e aux\u00a0:<\/p>\n<ol>\n<li><strong>Chercheurs en IA\/ML<\/strong>\u00a0: en particulier ceux qui travaillent sur des sujets comme le r\u00f4le de l&#8217;IA dans le d\u00e9veloppement logiciel ou l&#8217;interpr\u00e9tabilit\u00e9 des mod\u00e8les, ou ceux qui font des benchmarks.<\/li>\n<li><strong>Ing\u00e9nieurs et enseignants en IA\/ML<\/strong>\u00a0: en tant que base pour apprendre \u00e0 cr\u00e9er, affiner et adapter des mod\u00e8les de langage sp\u00e9cifiques \u00e0 un domaine, ou pour soutenir des programmes \u00e9ducatifs sur l&#8217;architecture et la sp\u00e9cialisation de LLM.<\/li>\n<\/ol>\n<h2 class=\"wp-block-heading\">Essayer Mellum<\/h2>\n<p>Mellum est maintenant accessible sur <a href=\"https:\/\/huggingface.co\/JetBrains\/Mellum-4b-base\" target=\"_blank\" rel=\"noreferrer noopener\">Hugging Face<\/a>. Ce n&#8217;est que le d\u00e9but. Si la mise \u00e0 disposition de Mellum en open source permettait la r\u00e9alisation d&#8217;une exp\u00e9rience, d&#8217;une contribution ou d&#8217;une collaboration significative, cela serait d\u00e9j\u00e0 une grande satisfaction pour nous.<\/p>\n<p>Alors n&#8217;h\u00e9sitez pas \u00e0 vous joindre \u00e0 nous et \u00e0 essayer Mellum.<\/p>\n<p align=\"center\"><a class=\"jb-download-button\" href=\"https:\/\/huggingface.co\/JetBrains\/Mellum-4b-base\" target=\"_blank\" rel=\"noopener\"><i class=\"download-icon\"><\/i>D\u00e9couvrez Mellum sur Hugging Face<\/a><\/p>\n\n\n<p><em>Auteurs de l&#8217;article original en anglais<\/em> :<\/p>\n\n\n    <div class=\"about-author \">\n        <div class=\"about-author__box\">\n            <div class=\"row\">\n                <div class=\"about-author__box-img\">\n                    <img decoding=\"async\" src=\"https:\/\/blog.jetbrains.com\/wp-content\/uploads\/2025\/04\/github_copy-e1746002997805-200x200.jpg\" width=\"200\" height=\"200\" alt=\"Anton Semenkin\" loading=\"lazy\"  class=\"avatar avatar-200 wp-user-avatar wp-user-avatar-200 photo avatar-default\">\n                <\/div>\n                <div class=\"about-author__box-text\">\n                                            <h4>Anton Semenkin<\/h4>\n                                                        <\/div>\n            <\/div>\n        <\/div>\n    <\/div>\n\n\n    <div class=\"about-author \">\n        <div class=\"about-author__box\">\n            <div class=\"row\">\n                <div class=\"about-author__box-img\">\n                    <img decoding=\"async\" src=\"https:\/\/blog.jetbrains.com\/wp-content\/uploads\/2025\/04\/IMG_6815-e1746002737843-200x200.jpg\" width=\"200\" height=\"200\" alt=\"Michelle Frost\" loading=\"lazy\"  class=\"avatar avatar-200 wp-user-avatar wp-user-avatar-200 photo avatar-default\">\n                <\/div>\n                <div class=\"about-author__box-text\">\n                                            <h4>Michelle Frost<\/h4>\n                                        <p>Michelle Frost is an AI Advocate at JetBrains. With over a decade of engineering experience, Michelle holds a Bachelor of Science in Computer Science from the University of Missouri at Kansas City, a\u00a0<span class=\"c-mrkdwn__highlight\">Master<\/span> of Science in Artificial Intelligence from Johns Hopkins University, and is a Microsoft AI MVP. As an established AI and Machine Learning specialist, Michelle focuses on Responsible AI development. Her approach is grounded in creating AI that is fair, accountable, and transparent.<\/p>\n<p>Michelle is also an active member and Tech Advisor to The Center for Practical Bioethics&#8217; Ethical AI Initiative. When not behind the screen, she can be found tending to her garden with her 100 lb pup Wilbur by her side.<\/p>\n                <\/div>\n            <\/div>\n        <\/div>\n    <\/div>\n","protected":false},"author":813,"featured_media":563892,"comment_status":"closed","ping_status":"closed","template":"","categories":[8397],"tags":[6847,8638],"cross-post-tag":[],"acf":[],"_links":{"self":[{"href":"https:\/\/blog.jetbrains.com\/fr\/wp-json\/wp\/v2\/ai\/566590"}],"collection":[{"href":"https:\/\/blog.jetbrains.com\/fr\/wp-json\/wp\/v2\/ai"}],"about":[{"href":"https:\/\/blog.jetbrains.com\/fr\/wp-json\/wp\/v2\/types\/ai"}],"author":[{"embeddable":true,"href":"https:\/\/blog.jetbrains.com\/fr\/wp-json\/wp\/v2\/users\/813"}],"replies":[{"embeddable":true,"href":"https:\/\/blog.jetbrains.com\/fr\/wp-json\/wp\/v2\/comments?post=566590"}],"version-history":[{"count":10,"href":"https:\/\/blog.jetbrains.com\/fr\/wp-json\/wp\/v2\/ai\/566590\/revisions"}],"predecessor-version":[{"id":566679,"href":"https:\/\/blog.jetbrains.com\/fr\/wp-json\/wp\/v2\/ai\/566590\/revisions\/566679"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/blog.jetbrains.com\/fr\/wp-json\/wp\/v2\/media\/563892"}],"wp:attachment":[{"href":"https:\/\/blog.jetbrains.com\/fr\/wp-json\/wp\/v2\/media?parent=566590"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/blog.jetbrains.com\/fr\/wp-json\/wp\/v2\/categories?post=566590"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/blog.jetbrains.com\/fr\/wp-json\/wp\/v2\/tags?post=566590"},{"taxonomy":"cross-post-tag","embeddable":true,"href":"https:\/\/blog.jetbrains.com\/fr\/wp-json\/wp\/v2\/cross-post-tag?post=566590"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}