- El servidor físico de StorageReview calcula 314 billones de números sin una infraestructura de nube distribuida
- Todo el recuento continuó durante 110 días sin interrupción.
- El consumo de energía se reduce drásticamente en comparación con los registros Pi anteriores basados en clústeres.
Se estableció un nuevo punto de referencia en el cálculo numérico a gran escala con el cálculo de 314 billones de dígitos de pi en un único sistema local.
La ejecución fue completada por StorageReview, superando los esfuerzos anteriores basados en la nube, con Google Cloud Computing alcanzando los 100 billones para 2022.
A diferencia de los enfoques de hiperescala que dependen de recursos ampliamente distribuidos, este récord se logró en un servidor físico utilizando opciones de hardware y software estrictamente controladas.
Tiempo de ejecución y estabilidad del sistema
El conteo continuó durante 110 días, significativamente más corto que los aproximadamente 225 días requeridos para registros anteriores a gran escala, aunque ese esfuerzo anterior produjo números más bajos.
La ejecución ininterrumpida está optimizada para la estabilidad del sistema operativo y la actividad en segundo plano limitada.
También se basa en una topología NUMA equilibrada y un cuidadoso ajuste de la memoria y el almacenamiento para que coincida con el comportamiento de las aplicaciones y-cruncher.
La carga de trabajo se trató menos como una demostración y más como una prueba de estrés extendida de un sistema de producción.
En el centro del esfuerzo estaba un sistema Dell PowerEdge R7725 equipado con dos procesadores AMD EPYC 9965, que proporcionaban 384 núcleos de CPU, junto con 1,5 TB de memoria DDR5.
El almacenamiento consta de cuarenta unidades NVMe Ion Micron 6550 de 61,44 TB, que proporcionan aproximadamente 2,1 PB de capacidad bruta.
Treinta y cuatro de estas unidades se asignaron al espacio temporal de Y-cruncher en un diseño JBOD, y las unidades restantes formaron un volumen RAID de software para proteger el resultado final.
Esta configuración prioriza el rendimiento y la eficiencia energética sobre la resiliencia total de los datos durante el cálculo.
Las cargas de trabajo numéricas generaron una actividad sustancial en el disco, incluidos aproximadamente 132 PB de lecturas lógicas y 112 PB de escrituras lógicas.
El uso máximo de discos lógicos alcanzó alrededor de 1,43 PIB, mientras que el punto de control más grande superó los 774 TIB.
Las métricas de desgaste de SSD informaron alrededor de 7,3 PB de escrituras por unidad, en comparación con aproximadamente 249 PB en los dispositivos de intercambio.
Los puntos de referencia internos mostraron un rendimiento de lectura y escritura secuencial de más del doble en comparación con la plataforma anterior de 202 billones de dígitos.
Para esta configuración, se informó que el consumo de energía fue de alrededor de 1.600 vatios, con un consumo de energía total de alrededor de 4.305 kWh, o 13,70 kWh por billón calculado.
Esta cifra es mucho menor que la estimación récord anterior basada en clústeres de 300 billones de dígitos, que se dice que consumió más de 33.000 kilovatios hora.
El resultado sugiere que, para determinadas cargas de trabajo, proteger cuidadosamente los servidores y las estaciones de trabajo. La nube puede superar a la infraestructura en términos de eficiencia.
Sin embargo, esta apreciación se aplica estrictamente a esta clase de cálculos y no se extiende automáticamente a todos los usos científicos o comerciales.
Siga TechRadar en Google News Y Agréganos como fuente preferida Obtenga nuestras noticias, reseñas y opiniones de expertos en su feed. ¡No olvides hacer clic en el botón de seguir!
Y por supuesto que puedes Siga TechRadar en TikTok Reciba nuestras actualizaciones periódicas en forma de noticias, reseñas, unboxing y videos. WhatsApp muy











