Conecta con nosotros
Entrevista Arti Garg HPE Entrevista Arti Garg HPE

Entrevistas

«La HPC impulsada por la Inteligencia Artificial puede traer de verdad el futuro»

Arti Garg

Head of Advanced AI Solutions & Technologies

HPE

Publicado el

Arti Garg era Directora de tecnología y mercados emergentes en Cray cuando HPE compró la compañía, y cuando pasó a formar parte de su plantilla entre el cierre de la operación y la integración completa de HPE y Cray, fue nombrada Responsable de soluciones y tecnologías de Inteligencia Artificial Avanzada de HPE, cargo al que en noviembre de 2021 añadió el de Responsable de estrategia para Inteligencia Artificial de HPE.

Desde entonces hasta ahora, Arti se ha encargado de todo lo relacionado con los pasos que la compañía está dando, ahora y de cara al futuro, en cuanto a Inteligencia Artificial y su relación e integración con otras tecnologías. Hablamos con ella en el marco del evento Discover 2022, celebrado hace unos días en Las Vegas, sobre lo que ha hecho desde que llegó a HPE en IA, cómo puede ayudar esta a las empresas ahora y en el futuro, la computación de alto rendimiento, la ética en IA o sus planes para el futuro en HPE.

[MCPRO] ¿Cuáles han sido los principales logros de tu equipo en estos dos años y medio, desde que HPE compró Cray y entraste a formar parte de la compañía? 

[Arti Garg] Pues hasta hace cuatro meses mi equipo era solo yo, desde que Cray se convirtió en parte de HPE. Al mismo tiempo se puso en marcha el área de soluciones y estrategia, y yo por entonces estaba entrando en una nueva organización e intentando descubrir qué haríamos todos los que veníamos de Cray, porque una parte de la organización se estaba formando. Entonces me di cuenta de que necesitábamos centrarnos en tecnologías emergentes y avanzadas. También en cargas de trabajo en el espacio de la inteligencia Artificial. Todo está evolucionando tan rápido que no podemos solo esperar a seguir su ritmo. Necesitamos prestar atención a lo que está pasando.

Por eso hice varias propuestas. La primera fue poner en marcha un programa de startups que trabajen en el campo de la Inteligencia Artificial. HPE ya estaba entonces montando un grupo para investigar y evaluar aceleradores de Inteligencia Artificial avanzados, y yo hice varias propuestas al respecto, como desarrollar un configurador de sistemas impulsado mediante Inteligencia Artificial. También plantee otras medidas que pensé que deberíamos tomar en la organización en cuanto a IA. 

En cuanto a nuestro trabajo con las startups con Inteligencia Artificial, mi idea era que deberíamos hacer algo con ellas, y ser más proactivos. Ya estábamos trabajando con ellas a través de HPE Pathfinder, la división de inversión de la compañía, pero tenía la idea de colaborar con estas startups de manera más formal. Para ello tenemos ahora el programa AI Advance, y contraté hace poco a un director que se encarga específicamente de este programa.

Nuestro objetivo, ahora, es más o menos investigar, evaluar y localizar, sobre todo startups que estén en sus primeras etapas de desarrollo, que sean realmente interesantes y que tengan mucho valor potencial. Todavía trabajamos de manera muy cercana con Pathfinder, y nuestro objetivo ahora es identificar a los proveedores, las plataformas de software y las funciones que pueden ser transformadoras de verdad.

Una de las primeras empresas con las que nos asociamos fue Determined AI, y al final terminamos comprándola. Creo que parte del trabajo de campo que hicimos al asociarnos con ellos, que hicimos en una fase temprana, nos ayudó a comprendernos bien unos a otros. También a desarrollar y conseguir cierta confianza. Contaba con una plataforma muy atractiva, y creo que esta fue una de las razones por las que decidieron convertirse en parte de HPE: la confianza que habíamos desarrollado con ellos. 

[MCPRO] ¿Cómo trabajan ahora tus equipos? Por lo que has mencionado entiendo que van a ser más grandes de lo que son en la actualidad

[Arti Garg] Si , y eso que ya ha crecido mucho. También soy parte de un equipo mayor centrado en la Inteligencia Artificial. Hasta ahora he hablado de software, pero también he estado trabajando codo con codo con HPE Labs, y con el Departamento de la CTO de la compañía, en investigaciones sobre arquitecturas nuevas alternativas para dar soporte a cargas de trabajo de Inteligencia Artificial. 

Creo que una de las cosas que hemos desarrollado es confianza con los clientes que quieren explorar estas arquitecturas nuevas, pero que necesariamente no quieren reunirse con todo el mundo que las desarrolla y después elegir ellos por si mismos. Por eso intentamos hacerlo nosotros: evaluarlas en HPE y elegir qué proveedores creemos que son realmente capaces de gestionar tipos de cargas de trabajo específicas. Después trabajamos estrechamente con los proveedores para desarrollar sistemas y ofertas. 

También trabajamos en el desarrollo de confianza con el cliente final, mostrándole que estamos detrás de estas tecnologías de partners también. Por ahora no puedo decir mucho más, pero tenemos planes al respecto para un futuro no muy lejano. 

[MCPRO] Tecnologías como la Inteligencia Artificial y otras relacionadas como el machine learning ya han salido de los laboratorios y han entrado en muchos sectores. ¿Cómo pueden ayudartes estas tecnologías a las empresas? ¿Pueden ayudar a las empresas a sacar el máximo partido de los datos que gestionan?

[Arti Garg] Creo que es una de las cosas que puede hacer la IA. Permitirte contar con la capacidad de utilizar todos los datos que tienes, y comprender qué está pasando con tu empresa. Puede que la información que se extraiga sirva para hacer predicciones, o para ayudarte a decidir qué hacer a continuación. Pienso también en algunos casos concretos. Hay cosas que algunas de estas herramientas de IA te permiten hacer que serían muy complicadas para un humano.

Por ejemplo, hemos lanzado un producto llamado Swarm Learning (aprendizaje de enjambre), y la idea que hay detrás es una solución de aprendizaje federado en el que puedes entrenar un modelo, con conjuntos de datos que son del mismo tipo de datos pero que se almacenan unos aparte de otros, en distintos puntos, y por el motivo de seguridad que sea, no puedes compartir esos datos. Pero sí puedes hacerlo con los parámetros del modelo y sus aprendizajes. Por eso tienes un modelo mejor que el que conseguirías si lo entrenas en un único punto. No podrías hacerlo sin IA, porque incluso aunque tuvieses, por ejemplo un médico revisando los datos en un punto, no podría ir a otro punto a mirar los que hay allí y aprender de ellos.

Por eso se trata de un sistema con el que pueden entrenar un modelo de manera anónima. Uso el ejemplo del médico porque uno de los primero casos de uso de esta tecnología de aprendizaje se desarrolló para una aplicación médica que examinaba radiografías de pulmones para diagnosticar enfermedades pulmonares y querían solucionar un problema concreto. La entidad que quería mejorar en diagnóstico contaban con una red de hospitales, y cada uno de ellos tenía una población ligeramente diferente en cuanto a la enfermedad predominante.

Por eso, si entrenas un modelo en uno de los puntos solo podrás mejorar en el diagnóstico de un tipo de enfermedad. Y si lo haces en otro distinto mejorarás en el diagnóstico de otra distinta. Pero al usar Swarm Learning, entrenando un modelo en distintos puntos, y fusionando todo después para conseguir un modelo mejor se puede avanzar en el diagnóstico de las enfermedades predominantes a partir de todos los puntos en los que se entrenó. 

[MCPRO] ¿Cuál es el futuro de la computación de alto rendimiento? Qué opinas sobre ella?

[Arti Garg] Uno de los problemas principales de la actualidad en tecnología es que a medida que los modelos o los conjuntos de datos se hacen más y más grandes, llega un momento en el que es muy complicado procesar y gestionar todo con un ordenador o un nodo. Ya hemos visto el entrenamiento distribuido en varios nodos de computación de alto rendimiento de un sistema, así que en la actualidad ya tienes que usar técnicas de HPC y sistemas HPC para entrenar la mayoría de modelos de deep learning. Eso ya es habitual.

En cuanto al futuro, quién sabe hacia dónde avanzará. Yo siempre he tenido la idea de que lo hará hacia la capacidad de gestionar conjuntos de datos, o incluso resultados de simulaciones y memoria mientras estás realizando un experimento para poder comparar las cosas a la vez, y hacerlo en tiempo real. Esto todavía es un sueño por muchos motivos, pero creo que es ahí donde la gente empezará a darse cuenta de algunas de las posibilidades futuras de la computación avanzada. A partir de experimentos de computación científica avanzada, como las técnicas que ya están utilizando las farmacéuticas para descubrir nuevos compuestos que deriven en nuevos medicamentos.

Creo que la computación de alto rendimiento impulsada por la Inteligencia Artificial puede traer de verdad el futuro. La HPC y la IA trabajando en combinación pueden solucionar muchos problemas.

[MCPRO] ¿Qué opinas sobre el uso ético de la Inteligencia Artificial?

[Arti Garg] Justo esto está presente en muchas empresas ya en la actualidad. Yo misma formo parte de un programa de entrenamiento en inteligencia Artificial ética. Es un imperativo con cualquier tecnología. Es importante pensar detenidamente en las maneras en las que se puede usar con responsabilidad. No queremos que se use de manera irresponsable. Y uno de los problemas para conseguirlo es que está evolucionando con rapidez. Además, todavía no sabemos todo lo que puede llegar a hacer, aunque el potencial que ofrece para hacer cosas buenas es muy elevado.

También es importante que la ética y la Inteligencia Artificial ética no se vean como algo independiente. No se trata solo de cumplir normativas, y todos deberíamos pensar en ello y ser responsables con su uso. 

Por otro lado, estoy muy contenta y orgullosa de que en HPE hayamos puesto en marcha un programa de formación en ética en Inteligencia Artificial abierto a todos los empleados. Esto pone de manifiesto cómo pensamos en lo que vamos a hacer con nuestras tecnologías. Y lo hacemos porque es importante que seamos responsables. Creo que esa es la clave.

[MCPRO] ¿Qué panorama de futuro hay para la Inteligencia Artificial en HPE? ¿Cuáles son tus planes para el futuro inmediato?

[Arti Garg] La manera en la que pensamos en cómo la Inteligencia Artificial se hace realidad es que está integrada en la base de la infraestructura. Por tanto es una infraestructura especializada para dar soporte a, yo diría, los requisitos únicos de las cargas de trabajos de Inteligencia Artificial. Esta viene un poco a ser la base de todo lo que hacemos. Sobre esto veo una especie de diagrama, en el que más o menos hay dos bloques principales que están más orientados hacia el software. Uno más centrado en el entrenamiento de modelos y en su desarrollo, y el otro va más hacia la inferencia de modelos y su despliegue.

Ahora tenemos nuestro último lanzamiento, Swarm Learning. Hemos estado muy centrados en el desarrollo de nuestras capacidades y en la parte de entrenamiento de modelos y su despliegue y desarrollo, y diría que el próximo gran foco está en el modelo, en la parte de inferencia y despliegue. Esto es así porque para poder sacar de verdad el valor a la Inteligencia Artificial no tienes que limitarte a entrenar tu modelo. Tienes que desplegarlo. Tienes que ejecutar su inferencia. Por eso digo que es un área con la que seguiremos buscando qué hacer. En cuanto a uno de los proyectos en los que estoy trabajando, y que esperamos lanzar en agosto, es nuestro primer servidor edge específico para inferencia

Redactora de tecnología con más de 15 años de experiencia, salté del papel a la Red y ya no me muevo de ella. Inquieta y curiosa por naturaleza, siempre estoy al día de lo que pasa en el sector.

Lo más leído