La computación de alto rendimiento (HPC) ha evolucionado rápidamente desde su génesis en 1964 con la introducción de la CDC 6600, la primera supercomputadora del mundo. Desde entonces, la cantidad de datos que genera el mundo ha explotado y, en consecuencia, la necesidad de que HPC pueda procesar datos de manera más rápida y eficiente se ha vuelto primordial.
Este requisito de procesar datos de manera más eficiente ha obligado a los innovadores y diseñadores de HPC a pensar de forma innovadora no solo en cuanto a cómo se procesan los datos, sino también en dónde se procesan y qué termina procesándose.
Aún no hay estándares ni mejores prácticas claras que seguir. Pero las innovaciones y los avances se están volviendo rápidos y gruesos, especialmente con cosas como la AI.
“El mundo, lo posible, sigue expandiéndose radicalmente, casi de forma geométrica. La cantidad de datos que tenemos y la cantidad de cómputo que tenemos, y no se trata solo del cómputo sin procesar, sino también de los avances en términos de algoritmos y aprendizaje de transferencia. Hay tanto trabajo increíble en curso que es esta explosión cambriana de innovación”. – Justin Emerson, evangelista de tecnología principal, Pure Storage
Con la computación en la nube ahora firmemente establecida, las compuertas se han abierto para un mundo completamente nuevo de innovación y experimentación de supercomputación. Estas son las cinco tendencias principales en HPC: qué son y qué significan para el potencial de la empresa moderna de aprovechar al máximo su nueva riqueza de datos.
1. La inteligencia artificial se utilizará para mejorar la HPC.
Sería muy difícil hablar sobre las tendencias actuales de HPC sin mencionar la inteligencia artificial (AI). En los últimos cinco años aproximadamente, con la llegada de Internet de las cosas (IoT), 5G y otras tecnologías basadas en datos, la cantidad de datos disponibles para la AI significativa y transformadora ha crecido lo suficiente para que la AI tenga un impacto en HPC, y viceversa.
Se necesitan computadoras de alto rendimiento para potenciar las cargas de trabajo de AI, pero resulta que la AI en sí puede utilizarse ahora para mejorar los centros de datos de HPC. Por ejemplo, la AI puede monitorear el estado general del sistema, incluido el estado del almacenamiento, los servidores y el equipo de red, lo que garantiza la configuración correcta y predice la falla del equipo. Las empresas también pueden usar la AI para reducir el consumo de electricidad y mejorar la eficiencia al optimizar los sistemas de calefacción y refrigeración.
La AI también es importante para la seguridad en los sistemas HPC, ya que se puede usar para detectar malware en los datos entrantes y salientes. También puede proteger los datos a través del análisis de comportamiento y la detección de anomalías.
El procesamiento del lenguaje natural (NLP) es otra área emocionante relacionada con HPC de AI. La AI se trata de obtener información y valor de los datos, y NLP ayuda a crear tecnologías más accesibles e inclusivas.
2. La computación periférica agregará valor y velocidad.
Las empresas pueden implementar su centro de datos de HPC en las instalaciones, en la nube, en el “borde” (sin embargo, se puede definir ese borde) o con alguna combinación de estos. Sin embargo, cada vez más organizaciones eligen implementaciones distribuidas (es decir, perimetrales) para obtener tiempos de respuesta más rápidos y beneficios de ahorro de ancho de banda que aportan.
Los centros de datos centralizados simplemente son demasiado lentos para las aplicaciones modernas, lo que requiere que el cálculo y el almacenamiento de datos se lleven a cabo lo más cerca posible de la aplicación o el dispositivo para cumplir con SLA de latencia cada vez más estrictos 5G-enabled.
La velocidad es, por supuesto, un componente clave de la computación de alto rendimiento, ya que cuanto más rápido las HPC pueden calcular datos, más datos pueden calcular y más problemas complejos pueden resolver. A medida que la computación perimetral se vuelve cada vez más popular, las computadoras de alto rendimiento se vuelven aún más potentes y valiosas.
Lea sobre 7 tendencias en la computación periférica para ver >>
3. HPC será aún más accesible como servicio.
El surgimiento de la nube marcó el comienzo de una revolución como servicio, y HPC ahora se une al movimiento. Muchos proveedores han pasado de vender equipos de HPC a proporcionar HPC como servicio (HPCaaS). Esto permite que las empresas que no tienen el conocimiento interno, los recursos o la infraestructura creen su propia plataforma de HPC para aprovechar la HPC a través de la nube.
Ahora, muchos de los principales proveedores de nube, como Amazon Web Services (AWS), Google y Alibaba, ofrecen HPCaaS. Los beneficios de HPCaaS incluyen facilidad de implementación, escalabilidad y previsibilidad de costos.
4. La computación por GPU estará en aumento.
Originalmente diseñadas para juegos, las unidades de procesamiento de gráficos (GPU) han evolucionado a uno de los tipos más importantes de tecnología informática. Una GPU es una unidad de procesamiento especializada capaz de procesar varios datos simultáneamente, lo que hace que las GPU sean útiles para el aprendizaje automático, la edición de videos y las aplicaciones de juegos.
Las aplicaciones que utilizan GPU para HPC incluyen pronóstico del tiempo, minería de datos y otros procesos diversos que requieren esta velocidad y cantidad de cálculo de datos. NVIDIA es el mayor fabricante de GPU.
Descubra cómo Pure redefine y simplifica los flujos de trabajo de AI con NVIDIA >>
Nota: Las GPU a veces se confunden con las unidades de procesamiento central (CPU) y las unidades de procesamiento tensor (TCU). Una CPU es un procesador de uso general que administra toda la lógica, los cálculos y la I/O de una computadora. Una TCU es el procesador específico de la aplicación personalizado de Google que se utiliza para acelerar las cargas de trabajo de aprendizaje automático. Una GPU, por otro lado, es un procesador adicional para mejorar la interfaz gráfica y ejecutar tareas de alta gama.
5. El almacenamiento de datos moderno será una inversión crítica.
Los tres componentes clave de un sistema HPC son la computación, las redes y el almacenamiento. Debido a que el almacenamiento es uno de los elementos más importantes, es clave tener una solución de almacenamiento de datos moderna y potente si está usando o planea usar HPC.
Para poder adaptarse a la gran cantidad de datos involucrados en HPC, el sistema de almacenamiento de datos del sistema de HPC debe ser capaz de:
- Haga que los datos de cualquier nodo estén disponibles en cualquier momento
- Maneje cualquier tamaño de solicitud de datos
- Admite protocolos orientados al rendimiento
- Escale rápidamente para mantenerse al día con los SLA de latencia cada vez más exigentes
Querrá elegir una solución de almacenamiento de datos que mantenga su sistema HPC verdaderamente preparado para el futuro.
Cómo FlashBlade ofrece el almacenamiento de escalabilidad horizontal necesario para respaldar proyectos de HPC
FlashBlade® de Pure Storage® es la solución más avanzada de la industria para ayudar a eliminar los cuellos de botella del almacenamiento al ofrecer una plataforma de objetos y archivos rápidos unificados (UFFO) para aplicaciones y datos modernos. Lo mejor de todo es que es fácil de instalar, aprovisionar y administrar. Vea usted mismo cómo puede potenciar sus proyectos informáticos de alto rendimiento con FlashBlade. Realice una prueba hoy mismo.