JetBrains AI
Supercharge your tools with AI-powered features inside many JetBrains products
Novidades do Mellum: suporte a mais linguagens e novas maneiras de usá-lo localmente
Estamos facilitando que desenvolvedores usem localmente o Mellum, nosso modelo de complementação de código, e estamos trazendo o suporte a mais linguagens do que nunca.
Veja as novidades:
Mellum-all — agora no Hugging Face
Acabamos de lançar o Mellum-all, a nova instalação de código aberto do Mellum, treinada para dar suporte a todas as principais linguagens de programação. Os modelos anteriores do Mellum concentravam-se no Python ou no Kotlin. Com o Mellum-all, você obtém complementação sólida de código em uma grande variedade de linguagens, desde JavaScript e Go até Rust e Java, a partir de um único modelo de código aberto.
Obtenha o Mellum no Hugging Face
Extensão gratuita para o VS Code
Uma nova extensão para o VS Code no JetBrains Marketplace oferece complementação local de código para todas as principais linguagens, apoiada pelo Mellum-all e executada na sua máquina através do Ollama.
Sem configurações adicionais. Sem plug-ins especiais. Sem precisar de uma conta. Basta instalar a extensão e começar a trabalhar.
Além disso, você pode alternar para a versão do Mellum baseada na nuvem, que funciona com o VS Code, Cursor, Windsurf e outros.
Explore no Visual Studio Marketplace
SDK para adicionar às suas ferramentas o suporte local ao Mellum
Empacotamos o Mellum em um SDK leve que incorpora toda a lógica central necessária para a complementação de código.
É o mesmo SDK que usamos na nossa extensão para o VS Code, agora disponível para você poder incorporar o Mellum ao seu próprio editor, interface de linha de comando ou ferramentas experimentais.
Quer você esteja desenvolvendo algo pequeno ou queira apenas um ponto de entrada para LLMs locais que seja propício a desenvolvedores, o SDK torna simples começar a trabalhar com o Mellum-all.
JetBrains AI Assistant — suporte local ao Mellum com apenas um clique
Para usuários de IDEs baseados no IntelliJ (como o PyCharm, GoLand ou WebStorm), estamos tornando mais fácil do que nunca habilitar o Mellum: uma nova configuração no JetBrains AI Assistant permite conectar uma instância local do Mellum (através do Ollama ou LM Studio) com uma simples caixa de opção.
Assim que essa opção for marcada, a complementação de código usará o Mellum-all, executado inteiramente na sua máquina.
Você pode usar o Mellum-all sem ter que desenvolver um plug-in dedicado ou aplicar alternativas locais. Basta abrir as configurações e marcar a caixa de opção.

🎯 Nossa missão com este lançamento
Sabemos que os desenvolvedores cada vez mais querem ter opções locais, privativas e mais amplas — especialmente em editores como o VS Code, em que a maioria das ferramentas de complementação de código é baseada apenas na nuvem ou vinculada a plataformas fechadas. Este lançamento torna fácil executar o Mellum totalmente nas suas condições.
Fique atento aos próximos anúncios, incluindo notícias sobre uma colaboração empolgante nos próximos meses!
Comece a desenvolver com o Mellum SDK
Artigo original em inglês por: