JetBrains AI
Supercharge your tools with AI-powered features inside many JetBrains products
Novedades de Mellum: compatibilidad con más lenguajes y nuevas formas de utilizarlo localmente
Actualmente, estamos haciendo que Mellum, nuestro modelo de finalización de código, sea más fácil de usar de forma local para los desarrolladores, y estamos incorporando compatibilidad con más lenguajes que nunca.
Estas son las novedades:
Mellum-all: ahora en Hugging Face
Acabamos de lanzar Mellum-all, la próxima instalación de código abierto de Mellum, que se ha entrenado para admitir los principales lenguajes de programación. Mientras que los modelos anteriores de Mellum se centraban en Python o Kotlin, con Mellum-all gozará de una potente finalización de código para una amplia gama de lenguajes, desde JavaScript y Go hasta Rust y Java, todo desde un único modelo de código abierto.
Obtenga Mellum en Hugging Face
Extensión gratuita de VS Code
Una nueva extensión de VS Code en JetBrains Marketplace le ofrece finalización de código local para los principales lenguajes, respaldada por Mellum-all y que se ejecuta a través de Ollama en su máquina.
Sin configuración adicional. Sin complementos personalizados. Sin necesidad de cuentas. Solo tiene que instalar la extensión y empezar a trabajar.
Además, puede activar la versión de Mellum basada en la nube, que funciona en VS Code, Cursor, Windsurf y más.
Explore en Visual Studio Marketplace
SDK para añadir la compatibilidad local de Mellum con sus herramientas
Hemos incorporado Mellum en un SDK ligero que agrupa toda la lógica central necesaria para la finalización de código.
Es el mismo SDK que utilizamos en nuestra extensión VS Code, y ahora está a su disposición para que pueda incrustar Mellum en su propio editor, CLI o herramientas experimentales.
Tanto si está creando algo pequeño como si solo quiere un punto de entrada a los LLM locales fácil de usar para los desarrolladores, el SDK facilita la iniciación en Mellum-all.
JetBrains AI Assistant: compatibilidad local con Mellum en un clic
Para los usuarios de IDE basados en IntelliJ (como PyCharm, GoLand, WebStorm), estamos haciendo que sea más fácil que nunca habilitar Mellum: un nuevo ajuste en JetBrains AI Assistant le permite conectar una instancia local de Mellum (a través de Ollama o LM Studio) con solo marcar una casilla.
Una vez habilitado, la finalización de código utilizará Mellum-all, que se ejecuta íntegramente en su máquina.
Puede utilizarlo sin necesidad de desarrollar un complemento específico o aplicar soluciones locales. Solo tiene que abrir la configuración y marcar la casilla.

🎯 Nuestra misión con este lanzamiento
Sabemos que los desarrolladores desean cada vez más opciones locales, privadas y más amplias, sobre todo en editores como VS Code, donde la mayoría de las herramientas de finalización de código son exclusivas de la nube o están vinculadas a plataformas cerradas. Esta versión facilita ejecutar Mellum totalmente a su gusto.
No se pierda los próximos anuncios, ¡que incluirán noticias sobre una emocionante colaboración en los próximos meses!
Comience a crear con el SDK de Mellum
Artículo original en inglés de: