Mejores supercomputadores de escritorio para IA

  • DGX Spark acerca 1 petaFLOPS y el stack de IA al escritorio con seguridad on‑prem.
  • Europa avanza con EuroHPC (MareNostrum 5, Leonardo, LUMI) y centros como HPC‑6 y ALPES.
  • Estados Unidos, China, Japón e India marcan la exaescala con Aurora, El Capitán y Tianhe‑3.
  • El ecosistema combina HPC masivo y equipos locales para desarrollo, ajuste fino e inferencia.

Supercomputadora

La frontera entre el PC y el centro de datos se está diluyendo a toda velocidad, y con ello llega una nueva categoría: los supercomputadores de escritorio para IA. Este salto no solo democratiza el acceso al cómputo masivo, también cambia cómo prototipamos, entrenamos e inferimos modelos avanzados sin depender siempre de la nube.

En paralelo, el planeta vive una auténtica carrera por la exaescala, desde infraestructuras nacionales de cientos de megavatios hasta equipos compactos capaces de alcanzar el petaFLOPS en el despacho de un investigador. En este artículo reunimos, en un único sitio, todos los datos clave de las fuentes consultadas: panorama global, actores europeos y asiáticos, listas históricas, centros punteros y, por supuesto, el nuevo protagonista de sobremesa, Nvidia DGX Spark.

Qué es un supercomputador y por qué importa en IA

Un superordenador o supercomputadora es un sistema con capacidades de cálculo muy por encima de un PC convencional. Su rendimiento se expresa en FLOPS (operaciones de coma flotante por segundo), con unidades como los petaFLOPS (1015) y, en la élite actual, los exaFLOPS (1018).

Operan como un conjunto de miles de nodos (cada uno con CPU, GPU dedicadas, memoria y almacenamiento) conectados por redes de alta velocidad y switches, para trabajar como una sola máquina. Mientras un sobremesa potente ronda decenas de TFLOPS, estos sistemas alcanzan cientos de PFLOPS o más.

Sus aplicaciones abarcan casi todo: predicción meteorológica, astrofísica, biomedicina, diseño de fármacos, simulaciones nucleares, geofísica, sostenibilidad o investigación en IA. Gracias al cómputo masivo permiten procesar miles de millones de datos en segundos y resolver problemas que con equipos tradicionales llevarían años.

  • Usos destacados: armamentística y seguridad nacional, industria farmacéutica, big data, bioinformática, clima y calidad del aire, simulación de ingeniería, ciudades inteligentes, educación y computación en la nube.

Por sus dimensiones y consumo, requieren refrigeración avanzada (a menudo líquida), salas específicas con control de temperatura y protección antiincendios. Incluso hay centros que reutilizan el calor generado, como ocurre en instalaciones suizas que calientan estancias universitarias.

Europa acelera: EuroHPC, InvestAI y los grandes sistemas

Supercomputación europea y EuroHPC

Europa cuenta con 162 superordenadores registrados en 2025 y prevé nuevas instalaciones. La UE ha impulsado además una inversión de 200.000 millones de euros bajo la iniciativa InvestAI para erigirse en referente mundial en inteligencia artificial.

La coordinación y financiación de la alta computación recae en la «Empresa Conjunta Europea de Computación de Alto Rendimiento» (EuroHPC JU), que patrocina y opera una red de 9 sistemas repartidos por el continente. Entre ellos destacan LUMI (Finlandia), Leonardo (Italia) y MareNostrum 5 (España), pilares de la soberanía digital europea.

España aporta el Barcelona Supercomputing Center (BSC-CNS), que en 2004 levantó el histórico MareNostrum 1 y presentó en diciembre de 2023 MareNostrum 5. Este último, con 314 PFLOPS máximos, procesadores Intel Xeon y un consumo de 4.158,90 kW, ocupa en 2025 la posición 11 del TOP500 y se orienta a IA, investigación médica, descubrimiento de fármacos y meteorología.

Italia brilla con Leonardo (Cineca + EuroHPC), instalado en 2022 en Bolonia. Combina tecnología AMD e Intel, consume 7.493,74 kW, alcanza 315,74 PFLOPS y figura en la 9.ª plaza mundial. Es clave para que universidades y empresas compitan globalmente en biomedicina, energía, clima y, sobre todo, IA.

Finlandia alberga LUMI (CSC + EuroHPC), con tecnología AMD y HPE. Se inauguró en 2023 en Kajaani, llega a 386 PFLOPS, consume 7.106,82 kW y ostenta el 8.º puesto mundial. Dentro de EuroHPC es uno de los baluartes de mayor potencia.

En paralelo, Suiza opera en el CSCS el superordenador ALPES/ALPS 5, que con 7.124,00 kW de consumo y 434,90 PFLOPS figura como el 7.º del mundo. Se enfoca en meteorología, IA, biomedicina y energía, y forma parte de un programa con 13 proyectos donde ALPES es el más emblemático.

El sector energético también empuja: ENI (Italia) estrenó en 2024 el HPC-6 con AMD y HPE, que logra 606,97 PFLOPS con un consumo de 8.460,90 kW. Está ligado al Green Data Center de ENI para acelerar la transición energética, y ocupa la 5.ª posición mundial.

Asia y América: exaescala, récords y sistemas «en la sombra»

Japón mantiene un símbolo de excelencia con Fugaku (RIKEN R-CCS, Kobe). Basado en Fujitsu A64FX y arquitectura ARM, alcanza 442 PFLOPS con 26.248,36 kW, y continúa como referente por su eficiencia, hasta el punto de encabezar el Green500 según las fuentes consultadas. Se aplica a medicina, clima, IA y eficiencia energética.

Rusia, pese a las sanciones, desplegó en 2023 el MSU-270 en la Universidad Estatal Lomonósov (Moscú). Integra en torno a 100 aceleradores gráficos punteros (se desconoce si de AMD o Intel) y se estima en 400 PFLOPS, integrado en una red de centros rusos para IA, física, química, matemáticas y medicina.

China combina discreción y músculo. La serie Sunway (Wuxi) nació en 2016 con TaihuLight (125 PFLOPS) y evolucionó en 2021 a OceanLight, considerada de exaescala (>1 exaFLOPS), si bien sin cifras oficiales por tensiones tecnológicas con EEUU. En 2024/2025, el Tianhe-3 (Xingyi) habría logrado entre 1,57 y 2,01 exaFLOPS en pruebas, con rumores de poder superar a El Capitán.

Estados Unidos juega en «ligas mayores» con varios exaescala. Aurora (ANL + DOE), diseñado para llegar a 1,9–2 exaFLOPS, se instaló en 2023 y alcanzó su tope en 2024; hoy figura 3.º del TOP500 y sirve a ciencia, medicina, clima, IA, astrofísica y física de partículas. Paralelamente, El Capitán (LLNL + NNSA) apunta a 2–2,8 exaFLOPS, lidera el TOP500 y estará dedicado a seguridad nacional, con aplicaciones en simulaciones nucleares, ciberseguridad, salud, cambio climático y astrofísica.

Más allá del listado público, hay iniciativas específicas de IA a escala país. En Wuhan, China Telecom opera el Central Intelligent Computing Center, construido con hardware y software doméstico y refrigeración líquida, destinado a entrenamiento de modelos gigantes; algunas fuentes apuntan hasta 5 exaFLOPS, aunque sin confirmación oficial.

India se activa: GPUs, nube y horizonte exaescala

India no quiere quedarse atrás. La iniciativa IndiaAI Compute Capacity (dentro de la Misión IndiaAI) comprometió en 2024 unos 1.240 millones de dólares para un nuevo supercomputador con al menos 10.000 GPU para IA en colaboración con Nvidia. Además, Microsoft anunció 3.000 millones de dólares en enero de 2025 para nube e infraestructura de IA en el país.

El ecosistema local se calienta: Bhavish Aggarwal (CEO de Ola) invirtió 230 millones de dólares en el LLM Krutrim-2. En el país hay 34 supercomputadores, y el C-DAC impulsa, junto a la National Supercomputing Mission (NSM), una red nacional que podría entregar el primer sistema exaescala indio entre 2025 y 2026. Se planifica construir más de 70 supercomputadores en los próximos años.

Colossus, el supercomputador de xAI, y la polémica energética

En Estados Unidos, xAI (Elon Musk) desplegó Colossus en Memphis en solo 122 días en 2024. Empezó con 100.000 GPU Nvidia y planea 200.000, orientado a la IA de Grok 3.0 y futuras versiones. En pruebas de referencia habría alcanzado 10,6 exaFLOPS de IA, cifra que lo situaría entre los más potentes del planeta.

No todo son aplausos: el uso de gas natural como fuente energética ha generado críticas por su impacto en la calidad del aire local. Aun así, el proyecto ilustra la velocidad con la que el sector privado puede levantar infraestructuras de clase mundial enfocadas a IA.

DGX Spark: el «superordenador de escritorio» que trae la IA avanzada a casa

Nvidia ha puesto el listón alto con DGX Spark, un sistema compacto premiado por TIME como uno de los «Mejores Inventos de 2025» y disponible para compra general a partir del 15 de octubre. Su corazón es el Grace Blackwell GB10, capaz de llegar a 1 petaFLOPS, con red ConnectX-7 y todo el stack de software de IA de Nvidia para que investigadores y startups puedan usarlo «enchufar y listo».

A nivel de hardware, Spark combina una CPU ARM de 20 núcleos (10 Cortex-X925 + 10 Cortex-A725), 128 GB de memoria de GPU unificada LPDDR5x, SSD NVMe M.2 de 4 TB con autocifrado, 4 USB-C, HDMI, WiFi 7, Bluetooth 5.4, LAN 10 GbE y sistema DGX OS. Está pensado para IA agéntica, razonamiento y cargas complejas modernas.

Nvidia sostiene que se pueden ajustar modelos de hasta 70.000 millones de parámetros, ejecutar inferencia local y mantener los datos sensibles on-prem sin depender de la nube. Otras comunicaciones apuntan que puede manejar LLM de hasta 200.000 millones de parámetros según configuración y modelo, subrayando su ambición como «mini centro de datos» de escritorio.

En funcionalidad destaca la posibilidad de vincular dos Spark en un mini clúster para crear una «nube personal». Su integración es amigable: redes cableadas e inalámbricas, periféricos Bluetooth y el stack CUDA/cuDNN, Triton y compañía para desplegar prototipos de agentes, ajuste fino, inferencia aislada y seguridad de datos.

El precio de salida se sitúa en 3.999 dólares, y grandes marcas como Acer, Asus, Dell, Gigabyte, HP, Lenovo o MSI comercializarán variantes. Importante: no es un PC con Windows al uso; es un supercomputador local para IA compatible con modelos de DeepSeek, la IA china, Meta, Nvidia, Google o Qwen, entre otros de código abierto. Incluso Elon Musk ha recibido ya su unidad de manos de Jensen Huang.

La llegada del Spark coincide con un cambio de prioridades: según líderes del sector, usuarios y empresas buscarán sistemas que soporten la próxima ola de cargas inteligentes. Los pedidos se abren en Nvidia.com y a través de partners y distribuidores autorizados.

PCs y estaciones para IA: cuándo necesitas hardware específico

Mejores supercomputadores de escritorio para IA

Si vas a entrenar modelos o desarrollar, conviene invertir en hardware especializado; si solo consumes IA, un equipo equilibrado puede bastar o recurrir a instancias EC2 en la nube.

Además, hay equipos que acercan la IA potente al local sin depender de la nube, como hemos visto con Spark. Y si dudas con la elección, hay quien ofrece ayuda personalizada: IbericaVIP promete asesorarte para elegir el PC ideal para tus proyectos de IA.

Comunidad y noticias: no todo lo que lees es oficial

En internet abundan foros y subreddits centrados en Nvidia donde se habla de drivers, GPUs o rumores. Ojo: estas comunidades son gestionadas por fans y no representan a Nvidia salvo indicación expresa. Es bueno tenerlo presente cuando evalúas filtraciones o cifras no confirmadas.

Cómo son por dentro: arquitectura, escalado y refrigeración

Un supercomputador es esencialmente un conjunto de miles de equipos unidos por redes de baja latencia y gran ancho de banda. Cada nodo integra CPU, GPU, RAM y almacenamiento; el sistema agrega su potencia mediante software y bibliotecas optimizadas.

La métrica reina es el FLOPS: pasamos de TFLOPS en PCs domésticos a PFLOPS y exaFLOPS en HPC. Así, 1 TFLOPS = 1012 FLOPS y 1 PFLOPS = 1015. Los superordenadores ocupan salas enteras y se usan por múltiples equipos a la vez, con recursos funcionando casi siempre al límite.

La refrigeración es crítica. Hay CPUs y GPUs que superan los 80 ºC, por lo que se recurre a agua templada o líquida directa, intercambiadores y diseños a medida. Algunas instalaciones aplican soluciones creativas, como reutilizar el calor para calefacción de edificios.

Dónde están y cómo visitarlos

Hay más de un millar de supercomputadores en el mundo. China y Estados Unidos lideran en número y músculo, con datos históricos como 226 sistemas chinos entre los 500 más potentes. Eso sí, EEUU ha llegado a acumular más PFLOPS totales (644) frente a China (565) en ciertas ediciones.

En España, el MareNostrum del BSC-CNS (Barcelona) es el más potente del país. Sus primeras versiones se alojaron en una urna de cristal con sistema contra incendios de agua micropulverizada y una ubicación singular: la capilla del Campus Nord de la UPC. Se pueden realizar visitas virtuales y, puntualmente, guiadas.

Documentos históricos situaban la entrada en operación de MareNostrum 5 entre 2020 y 2021; finalmente se presentó a finales de 2023 con el salto de prestaciones ya mencionado. Esta evolución ilustra bien cómo los calendarios en HPC sufren ajustes por la complejidad técnica.

Listas históricas y otros sistemas destacados

La lista TOP500 existe desde 1993 y se actualiza dos veces al año. En 2021, por ejemplo, el top 10 lo integraban Fugaku, Summit, Sierra, Sunway TaihuLight, Perlmutter, Selene, Tianhe-2A, Juwels Booster Module, HPC5 y Frontera. Aunque varios ya han sido superados, siguen siendo hitos tecnológicos por su impacto.

Algunos datos adicionales relevantes de sistemas citados en las fuentes: Frontier (HPE Cray EX, ORNL) fue el primero en romper oficialmente la exaescala; Summit (IBM POWER9 + Nvidia V100) destacó en Alzheimer, genética y meteorología; Sierra (IBM + Nvidia + Mellanox) trabajó para la NNSA en seguridad nuclear.

En Europa, además de los ya citados, figuran Juwels Booster y SuperMUC (Lenovo, refrigeración por agua directa), con decenas de petabytes y potentes entornos de visualización. Suiza operó Piz Daint (Cray), con DataWarp como búfer de ráfaga para acelerar I/O.

Italia incorporó HPC5 (Dell, en ENI) con Xeon Gold 6252 y Nvidia V100; Marconi-100 (IBM POWER9 + Volta V100) en Cineca; y Perlmutter (Berkeley Lab, EEUU) fue uno de los más potentes en procesamiento de IA con 6.000 GPU A100, capaz de 180 PFLOPS y, en ciertos escenarios de IA, varios exaFLOPS efectivos.

En EEUU, Selene (Nvidia, A100) brilló por eficiencia (1.344 kW); Frontera (Dell, Univ. de Texas) destacó por su almacenamiento (50 PB HDD + 3 PB SSD, 12 Tbps) y reinicios en 17 s; Trinity (Cray XC40) sirvió a la NNSA con Haswell y Knights Landing; Lassen (IBM Power9) reforzó el ecosistema LLNL.

Japón también impulsó ABCI (Fujitsu) para IA en la nube. Y en España, MareNostrum 4 (2017) llegó a 13,7 PFLOPS antes del salto a MN5, con aplicaciones en genética, química, paleontología, meteorología o calidad del aire (CALIOPE).

Todo este mapa, desde las instalaciones exaescala hasta el escritorio, dibuja un futuro cercano en el que probar, ajustar e inferir modelos avanzados será cada vez más local, con la nube como complemento. Europa pisa el acelerador con EuroHPC, Estados Unidos y China mantienen el pulso en la exaescala, India emerge con inversiones masivas, y en el lado de sobremesa, DGX Spark abre una puerta tangible a la IA de alto nivel sin salir del laboratorio, la oficina o incluso casa.

Qué es microsoft azure
Artículo relacionado:
Microsoft Azure: Qué es, cómo funciona y todos sus productos y servicios