- Cambio de enfoque hacia la invención de hardware infértil del entrenamiento D-Matrix AI
- Corsar usa LPDDDR5 y SRAM para cortar HBM Reliance
- Pavhak combina tambores apilados y lógica para Latensi bajo
Sandisk y SK Hynix firmaron recientemente un acuerdo para el desarrollo de “alto flash de ancho de banda”, diseñado para aportar una potencia sin potencia más grande a los aceleradores de IA de HBM.
D-Matrix ahora está en la competencia para acelerar el estrés de la inteligencia artificial como competidor de la memoria de alto ancho de banda.
Aunque la mayor parte de la industria se ha centrado en los modelos de capacitación que usan HBM, esta compañía ha optado por concentrarse en la hipótesis de IA.
Un enfoque diferente a la pared de la memoria
Su diseño actual utiliza una arquitectura basada en Chiplet con la matriz D corresponde, 256 GB LPDDR 5 y 2GB SRAM.
En lugar de perseguir tecnologías de memoria más caras, el concepto es hacer frente al motor de cómputo y al DRAM, para crear un vínculo sólido entre el conteo y la memoria.
La tecnología, conocida como D-Matrix Pavhak, se lanzará con 3 DIMC, que se espera que compite con HBM4 por supuestos de IA con ancho de banda 10x y pila para pila.
Construido en un tinte lógico TSMC N5 y combinado con DRAM apilado en 3D, se calcula el objetivo de la plataforma y la memoria se compara más de cerca con el diseño convencional.
Algunos datos eliminan la barrera de transferencia, D-Matrix sugiere que puede reducir tanto el retraso como el uso de energía.
Mirando su ruta tecnológica, múltiples tambores en Logic Silicon parecen estar comprometidos con la muerte para aún más el ancho de banda y el poder de la matriz.
La compañía argumenta que este método apilado puede proporcionar una secuencia de dimensiones en las ganancias del rendimiento cuando se usa baja energía para el movimiento de datos.
Para el arte de escalar interfaces de memoria, la propuesta sigue siendo ambiciosa, pero la propuesta sigue siendo ambiciosa.
Es de destacar que las innovaciones de memoria en torno al acelerador de la suposición no son nuevas.
Otras compañías están experimentando con soluciones de memoria y cálculo estrechamente combinadas, incluidos diseños con los controladores o enlaces interconectados como CXL.
D-Matrix, sin embargo, está tratando de avanzar integrando el silicio personalizado para reelaborar el equilibrio entre gastos, energía y actuaciones.
El trasfondo de estos desarrollos es el desafío interminable de gastos y suministro que rodea a HBM.
Los jugadores grandes como NVIDIA pueden asegurar piezas de HBM de alto nivel, pero las pequeñas empresas o centros de datos a menudo deben resolverse para módulos de baja velocidad.
Esta discriminación crea un campo de juego desigual donde el acceso a la memoria más rápida da forma directamente a la competencia.
Si D-Matrix realmente puede proporcionar opciones de corto costo y de alta potencia, abordará uno de los puntos débiles centrales de escala a nivel de centro de datos.
A pesar de las afirmaciones de “10x mejor rendimiento” y “10x mejores habilidades de poder, De-Matrix todavía está en su comienzo como un viaje de varios años.
Muchas compañías han tratado de lidiar con el muro de memoria llamado, sin embargo, algunas personas han vuelto a superar el mercado.
La aparición de equipos de IA y la dependencia de cada LLM muestra la importancia del hardware de inferencia escalable.
Sin embargo, el pabellón y la correspondencia serán ampliamente adoptadas alternativas o si permanecerán experimentales.
Hogar