JetBrains AI
Supercharge your tools with AI-powered features inside many JetBrains products
Nouveautés de Mellum : prise en charge étendue des langages et nouveaux moyens de l’utiliser localement
Durent cet été, nous avons travaillé à faciliter l’utilisation locale de notre modèle de saisie semi-automatique de code Mellum pour les développeurs et avons ajouté la prise en charge de plusieurs langages majeurs.
Voici les nouveautés de cette version :
Mellum-all maintenant sur Hugging Face
Nous venons de publier Mellum-all, la nouvelle installation open source de Mellum, entraînée pour prendre en charge tous les principaux langages de programmation. Les premiers modèles de Mellum se concentraient sur Python ou Kotlin. Avec Mellum-all, vous bénéficiez d’une saisie semi-automatique du code robuste pour davantage de langages, de JavaScript et Go à Rust et Java, à partir d’un modèle unique et open source.
Obtenez Mellum sur Hugging Face
Extension VS Code gratuite
Une nouvelle extension VS Code disponible sur la Marketplace JetBrains fournit la saisie semi-automatique de code locale pour tous les principaux langages, prise en charge par Mellum-all et exécutée via Ollama sur votre machine.
Aucune configuration supplémentaire. Aucun plugin personnalisé. Aucun compte requis. Installez simplement l’extension et commencez à travailler.
Vous pouvez également basculer vers la version cloud de Mellum, qui fonctionne notamment dans VS Code, Cursor et Windsurf.
Découvrez-la sur la Marketplace Visual Studio
SDK pour ajouter la prise en charge locale de Mellum à vos outils
Nous avons intégré Mellum dans un SDK léger qui regroupe toute la logique de base nécessaire à la saisie semi-automatique du code.
C’est le même SDK que celui que nous utilisons dans notre extension VS Code, et il est désormais disponible pour que vous puissiez intégrer Mellum dans votre propre éditeur, CLI ou vos outils expérimentaux.
Que vous développiez quelque chose à petite échelle ou que vous souhaitiez simplement un point d’entrée convivial pour les développeurs vers les LLM locaux, le SDK simplifie la prise en main de Mellum-all.
JetBrains AI Assistant : prise en charge locale de Mellum en un clic
Pour les utilisateurs d’IDE basés sur IntelliJ (comme PyCharm, GoLand, WebStorm), l’activation de Mellum est plus facile que jamais : un nouveau paramètre dans JetBrains AI Assistant vous permet de connecter une instance Mellum locale (via Ollama ou LM Studio) à l’aide d’une simple case à cocher.
Une fois activée, la saisie semi-automatique du code utilisera Mellum-all, qui s’exécute entièrement sur votre machine.
Vous pouvez l’utiliser sans développer de plugin dédié ni appliquer de solutions de contournement locales. Ouvrez simplement les paramètres et cochez la case.

🎯 Notre mission avec cette version
Nous savons que les développeurs recherchent de plus en plus des options locales, privées et plus larges, en particulier pour des éditeurs comme VS Code, dans lesquels la plupart des outils de saisie semi-automatique de code sont uniquement disponibles dans le cloud ou liés à des plateformes fermées. Cette version facilite l’exécution de Mellum entièrement selon vos conditions.
Ne ratez pas nos prochaines actualités, notamment l’annonce d’une nouvelle collaboration intéressante à venir cet automne !
Commencez à créer avec le SDK Mellum
Auteur de l’article original en anglais :