Conecta con nosotros

Noticias

Google Cloud «rompe» el número Pi y alcanza los 100.000 millones de dígitos

Publicado el

Google Cloud bate el récord con el número pi y alcanza los 100 billones de dígitos

Lo ha vuelto a hacer por tercera vez consecutiva, tras los récords obtenidos en 2019 y 2021 respectivamente. Científicos de la Universidad de Ciencias Aplicadas de los Grisones en Suiza han superado los 100.000 millones de dígitos de pi, tras los 31,4 mil millones obtenidos en 2019 y los 62,8% mil millones de 2021. Google Cloud se ha convertido en la mejor manera de calcular esta constante matemática que se ha triplicado en tan solo tres años.

Para conseguir dicho cálculo ha sido esencial utilizar Compute Engine -el servicio de computación seguro y personalizable de Google Cloud-, la familia de máquinas N2 de Compute Engine, un ancho de banda de 100 Gbps, la NIC virtual de Google y discos persistentes equilibrados. Y todo ello en apenas 157 días.

Para entender este hito  hay que entender que llegar a este nivel de dígitos, precisa de importantes recursos de computación, almacenamiento y red. Un cálculo que tiene como objetivo conocer cuáles son los límites de la experimentación científica; conocer la fiabilidad de los productos utilizados para su cálculo y saber cómo utilizar la infraestructura escalable de computación, redes y almacenamiento de Google Cloud para cargas de trabajo de computación de alto rendimiento (HPC)

Así se procede al cálculo del número pi en Google Cloud

Primero se piensa en el almacenamiento que va a ser necesario y en una primera estancia, estos profesionales de esta universidad de Suiza calcularon que se necesitaban unos 554 TB de almacenamiento temporal. Se diseño un clúster con un nodo de computación y 32 nodos de almacenamiento, para un total de 64 destinos de almacenamiento de bloques iSCSI.

El nodo informático principal es una máquina n2-highmem-128 que ejecuta Debian Linux 11, con 128 vCPU y 864 GB de memoria admitiendo un ancho de banda de salida de 100 Gbps. Cada servidor de almacenamiento es una máquina n2-highcpu-16 configurada con dos discos persistentes equilibrados zonales de 10.359 GB.

También utilizaron Terraform para configurar y gestionar el clúster; escribieron scripts de shell para automatizar tareas críticas -como la eliminación de instantáneas antiguas y el reinicio a partir de instantáneas-. La cantidad de memoria disponible y el ancho de banda de la red eran los dos factores más importantes, por lo que se seleccionó una n2-highmem-128 (Intel Xeon, 128 vCPU y 864 GB de RAM).  El tipo de máquina n2-highmem-128 proporciona un rendimiento de salida de hasta 100 Gbps.

También sustituyeron el controlador de red virtio por la nueva NIC virtual de Google (gVNIC). gVNIC es un nuevo controlador de dispositivos que se integra estrechamente con la pila de red virtual Andromeda de Google, para obtener un mayor rendimiento y reducir la latencia.

Y finalmente, programaron copias de seguridad automáticas cada dos días mediante un script de shell que comprueba el tiempo transcurrido desde las últimas instantáneas, ejecuta el comando fstrim para descartar todos los bloques no utilizados y ejecuta el comando gcloud compute disks snapshot para crear instantáneas de los discos persistentes.  Para almacenar los resultados finales, se utilizaron dos discos de 50 TB directamente al nodo de computación.

La precisión de los ajustes y las pruebas comparativas permitieron llegar hasta el cienbillonésimo decimal de Pi que, además, es un 0. Una vez finalizado el cálculo, se procedió a verificar las cifras definitivas con otro algoritmo, la fórmula de Bailey-Borwein-Plouffe

 

Lo más leído