- Nvidia adquiere SchedMD para mantener Slurm como software de gestión de cargas de trabajo de código abierto
- Slurm gestiona la programación y los recursos para grandes clústeres que ejecutan tareas de IA paralelas
- Nvidia lanza modelos Nemotron 3 con tamaños Nano, Super y Ultra para tareas de IA
Nvidia ha anunciado una importante expansión de sus esfuerzos de código abierto, combinando una adquisición de software con nuevos modelos abiertos de IA.
La compañía anunció que adquirió SchedMD, el desarrollador de Slurm, un sistema de gestión de cargas de trabajo de código abierto ampliamente utilizado en informática de alto rendimiento e inteligencia artificial.
Nvidia continuará operando Slurm como software de proveedor neutral, garantizando la compatibilidad con diversos hardware y manteniendo el soporte para los clientes existentes de HPC e IA.
Slurm y más
Slurm gestiona la programación, las colas y la asignación de recursos en grandes clústeres informáticos que ejecutan tareas paralelas.
Más de la mitad de las 10 y 100 supercomputadoras principales incluidas en la clasificación TOP500 dependen de servicios, incluidas instituciones, proveedores de nube, laboratorios de investigación y empresas de inteligencia artificial que utilizan el sistema, incluida la conducción autónoma, la atención médica, la energía, los servicios financieros, la manufactura y el gobierno.
Slurm funciona con el último hardware de Nvidia y sus desarrolladores continúan adaptándolo para cargas de trabajo de IA de alto rendimiento.
Junto con la adquisición, Nvidia también lanzó la familia Nemotron 3 de modelos abiertos con tamaños Nano, Super y Ultra.
Los modelos utilizan una combinación híbrida de arquitecturas expertas para admitir sistemas de IA multiagente.
Nemotoron 3 Nano se centra en la ejecución eficiente, Nemotoron 3 Super admite la colaboración entre múltiples agentes de IA y Nemotoron 3 Ultra maneja flujos de trabajo lógicos complejos.
Nvidia proporciona a estos modelos conjuntos de datos asociados, bibliotecas de aprendizaje por refuerzo y el entorno de entrenamiento NeMo Gym.
Los modelos Nemotron 3 se ejecutan en la plataforma de computación acelerada NVIDIA, incluidas estaciones de trabajo y grandes grupos de IA.
Los desarrolladores pueden integrar modelos abiertos con sistemas propietarios en flujos de trabajo de múltiples agentes utilizando plataformas empresariales o de nube pública.
Nvidia proporciona herramientas, bibliotecas y conjuntos de datos para respaldar la capacitación, la evaluación y la implementación en una variedad de entornos informáticos.
Nvidia lanzó tres billones de tokens de datos de aprendizaje previo, posterior y de refuerzo para los modelos Nemotoron 3.
Herramientas de inteligencia artificial adicionales, incluidas NeMo RL y NeMo Evaluator, ofrecen evaluación de modelos y evaluación de seguridad.
Los primeros en adoptar Nemotoron 3 incluyen empresas de software, ciberseguridad, medios, fabricación y servicios en la nube.
Nvidia ha puesto a disposición de los desarrolladores modelos de código abierto, herramientas de inteligencia artificial y conjuntos de datos para crear aplicaciones de inteligencia artificial agentes en GitHub y Hugging Face.
“La innovación abierta es la base del progreso de la IA”, escribió el fundador y director ejecutivo de Nvidia, Jensen Huang, en el comunicado de prensa de la compañía.
“Con Nimotron, estamos transformando la IA avanzada en una plataforma abierta que brinda a los desarrolladores la transparencia y eficiencia que necesitan para construir sistemas agentes a escala”.
Siga TechRadar en Google News Y Agréganos como fuente preferida Obtenga nuestras noticias, reseñas y opiniones de expertos en su feed. ¡No olvides hacer clic en el botón de seguir!
Y por supuesto que puedes Siga TechRadar en TikTok Reciba nuestras actualizaciones periódicas en forma de noticias, reseñas, unboxing y videos. WhatsApp muy











