Ulises Cortés
La siniestra oficina
se humanizaba por las noches
se oía un leve teclado.
Las máquinas se escribían
-unas a otras-
cartas de amor.
G. Fuertes
La historia de la relación beneficiosa entre la Inteligencia Artificial (IA) y la Computación de Alto Rendimiento (por sus siglas en inglés, HPC, High Performance Computing) es una narrativa de evolución paralela y convergencia eventual, impulsada por avances tecnológicos que han transformado la ciencia, la industria y la sociedad. Desde sus desarrollos iniciales a mediados del siglo XX, la IA y la HPC surgieron como dominios distintos, pero con el tiempo se han fundido, cada uno expandiendo las posibilidades del otro.
Los orígenes de la Computación de Alto Rendimiento se remontan a la década de 1940 con proyectos pioneros como la Electronic Numerical Integrator and Computer (ENIAC), una de las primeras computadoras electrónicas de propósito general, desarrollada en la Universidad de Pennsylvania. Después de ENIAC, en los años de 1950 se avanzó con la serie de computadores Illinois Automatic Computer (ILLIAC), que impulsó las capacidades computacionales paralelas hacia la supercomputación moderna. Durante la misma época, la IA surgió como disciplina científica a mediados de los años 50, enfocada en el estudio de la IA simbólica y el desarrollo de sistemas basados en reglas, que buscaban emular la toma de decisiones humanas codificando conocimiento experto y lógica en máquinas.

En las décadas 60 y 70, la HPC avanzó con la introducción de supercomputadoras creadas por visionarios como Seymour Cray. Estas máquinas estaban diseñadas para realizar cálculos científicos a velocidades inalcanzables por computadoras convencionales. Gran parte de esta innovación en HPC fue impulsada por necesidades militares, gubernamentales y académicas, extendiéndose luego a industrias como la aeroespacial, farmacéutica, automotriz y financiera. En contraste, la IA progresó a través de métodos simbólicos, experimentando ciclos de entusiasmo y retrocesos, incluyendo el auge y posterior caída de la tecnología de los sistemas expertos.
Durante los años 80 y 90 se observaron avances crecientes en arquitecturas HPC mientras la IA evolucionaba de sistemas basados en el conocimiento a enfoques estadísticos, ganando terreno el aprendizaje automático. Hacia finales de los 90, las técnicas de aprendizaje automático permitieron que los sistemas basados en la IA aprendieran de los datos en lugar de solo depender de reglas predefinidas y símbolos. En ese momento, IA y HPC operaban como campos paralelos con interacción limitada.
La verdadera convergencia comenzó en la década de 2000, impulsada por avances en la computación en clústeres y arquitecturas de procesamiento paralelo. Las Unidades de Procesamiento Gráfico (GPUs), originalmente diseñadas para renderizar gráficos, fueron adaptadas para acelerar cargas de trabajo HPC debido a su paralelismo masivo y eficiencia. En esta época, la investigación y aplicaciones de la IA también se beneficiaron de las mejoras en los algoritmos y la explosión de datos digitales disponibles para entrenar modelos. Las capacidades computacionales de los sistemas HPC se volvieron esenciales para soportar cargas de trabajo de los algoritmos de aprendizaje automático cada vez más complejas.

Los primeros años de la década de 2010 marcaron un avance crucial para la IA con la irrupción del aprendizaje profundo (DL), simbolizado por el concurso ImageNet de 2012 en el que las redes neuronales convolucionales (CNNs) superaron a los modelos anteriores en tareas de reconocimiento de imágenes. Entrenar estas redes neuronales profundas requirió un poder computacional vasto que solo podía ser alcanzado a través de HPC. Este hito consolidó el papel de la HPC como la columna vertebral computacional del aprendizaje profundo, permitiendo el entrenamiento rápido de modelos a gran escala.
En 2025, los elementos industriales más notorios de la IA y el HPC están vinculados de forma indisoluble. Los sistemas HPC proveen la infraestructura y la potencia computacional necesarias para entrenar y ejecutar modelos masivos lenguaje, incluyendo la vanguardia de la llamada IA generativa con millones de millones de parámetros. Un hito reciente en esta relación es la introducción por parte de Nvidia de su supercomputadora DGX Spark, antes conocida como Digits. Con un precio de $3,999 y equipada con el nuevo chip Grace Blackwell GB10, 128 GB de memoria y 4 TB de almacenamiento, DGX Spark es capaz de entrenar modelos con hasta 200 mil millones de parámetros. Esta innovación populariza el acceso a extraordinarias capacidades de entrenamiento de modelos basados en la IA, permitiendo a organizaciones e investigadores desarrollar y probar modelos de manera eficiente sin depender de grandes centros computación. Fabricantes líderes como Acer, Asus, Dell y HP han anunciado planes para lanzar sus propias versiones de este sistema, ampliando el acceso a la computación de alto rendimiento para el aprendizaje profundo y sus aplicaciones.

Más allá de estos avances, las aplicaciones basadas en la IA se usan cada vez más para mejorar las cargas de trabajo de HPC, optimizando la eficiencia de simulaciones y análisis de datos mediante el modelado sustituto y las Redes Neuronales Informadas por la Física (PINNs). Esta sinergia resulta transformadora en campos científicos como la investigación en energía de fusión, donde la combinación de IA y HPC acelera los ciclos de descubrimiento y diseño, prometiendo avances en tecnologías de energía limpia.
La acelerada evolución tecnológica de la IA y el HPC está tenido impactos extraordinarios en la economía, la sociedad y el medio ambiente. En lo económico, los avances combinados han transformado industrias al permitir decisiones más rápidas y basadas en datos, optimizando cadenas de suministro, mejorando diagnósticos médicos y habilitando la creación de sistemas autónomos, todavía en entornos reducidos y controlados. Esta productividad impulsada por la tecnología fomenta nuevos modelos de negocio y grandes ecosistemas tecnológicos, aunque también provoca disrupciones en el mercado laboral, requiriendo adaptación en la fuerza de trabajo hacia roles cada vez más automatizados y centrados en datos. También, implica la destrucción de puestos de trabajo.
En el ámbito social, las tecnologías potenciadas por aplicaciones conjuntas de la IA y el HPC ofrecen promesas y desafíos. Han mejorado la calidad de vida mediante avances en la investigación médica y servicios de medicina de precisión, pero también generan preocupaciones éticas, legales y de gobernanza sobre la privacidad, el sesgo y la transparencia en la toma de decisiones. La concentración del poder computacional en grandes corporaciones y la naturaleza compleja de las decisiones que pueden tomar los sistemas basados en la IA llaman a una regulación robusta y marcos políticos adecuados.
Ambientalmente, la rápida expansión de la infraestructura HPC y las cargas de trabajo de entrenamiento de estos masivos del lenguaje (e.g. DeepSeek, Gemini, etc) plantean desafíos relacionados con el consumo energético y la sostenibilidad. No existe un control del número de modelos que se entrenan ni se puede contabilizar de manera fehaciente su costo pues las grandes corporaciones poseen también las fuentes energéticas que los alimentan. Aunque el HPC e la IA apoyan la modelización ambiental y las ciencias climáticas, la naturaleza intensiva en energía de los centros de supercomputación subraya la necesidad de tecnologías de computación más verdes y algoritmos más eficientes.

En México, la carencia de infraestructura de supercomputación dedicada al uso científico sigue siendo una limitación estructural para el desarrollo de la ciencia y la innovación tecnológica. Hasta el momento, YUCA —instalada en la Universidad de Sonora— es la máquina más potente del país, con una capacidad de 2.3 petaFlops. Aunque constituye un avance relevante, su potencia resulta insuficiente para las necesidades crecientes de investigación en campos como la inteligencia artificial, la biología computacional, la física de altas energías o la modelación climática, donde países como Brasil ya operan sistemas de cientos de petaFlops.
Por otro lado, acuerdo con la opinión del MsC F. López Durán, la industria apostó, desde 2007, por la instalación de centros de datos con proyectos en Querétaro y, después en Monterrey, en Guadalajara, en Toluca, en Guanajuato -hay ahí un proyecto de 800 millones de USD, iniciativa de Layer9-, en Aguascalientes, y en la ciudad de México.
Según la Asociación Mexicana de Centros de Datos, hay 160 centros de datos operando hoy en México, y 73 en proyecto, de aquí a 2030, totalizando unos 9,000 millones de USD de inversión. Sin embargo, aun cuando la expansión de esta infraestructura privada representa una oportunidad económica, no necesariamente contribuye al fortalecimiento de la capacidad de cálculo científico nacional. Los centros de datos comerciales están orientados a servicios de almacenamiento y gestión de información, no a la investigación o simulación científica de alta demanda computacional.
La historia de la IA y el HPC refleja una relación que evolucionó desde orígenes paralelos hasta un presente simbiótico. A medida que las tecnologías conjuntas de la IA y el HPC continúan acelerándose y moldeando la economía global, la sociedad y el ambiente, es vital gestionar este crecimiento con responsabilidad, equilibrando la innovación con consideraciones éticas y de sostenibilidad para alcanzar su máximo impacto beneficioso para México y la humanidad. Apostar por esta infraestructura es apostar por el porvenir de la educación, la innovación y la ciencia mexicana.
En el futuro se vislumbra una integración aún mayor y un potencial transformador a escalas antes inimaginables, haciendo de la relación entre la IA y el HPC, una amistad a la vez atractiva y peligrosa, siendo una de las narrativas definitorias del avance tecnológico del siglo XXI, pero, ya se sabe, no todo lo que reluce es oro.
ULISES CORTÉS
Catedrático de Inteligencia Artificial de la Universitat Politècnica de Catalunya. Coordinador Científico del grupo High-Performance Artificial Intelligence del Barcelona Sucercomputing Center. Miembro del Observatori d’Ètica en Intel·ligència Artificial de Catalunya y del Comitè d’Ètica de la Universitat Politècnica de Catalunya. Es miembro del comité ejecutivo de EurAI. Participante como experto de México en el grupo de trabajo Data Governance de la Alianza Global para la Inteligencia Artificial (GPAI). Doctor Honoris Causa por la Universitat de Girona.
Notas
https://www.computerhistory.org/revolution/birth-of-the-computer/4/78
Simon, Herbert A. 1996. The Sciences of the Artificial (3rd ed.). Cambridge, MA: MIT Press. ISBN 978026219374
Russakovsky, O., Deng, J., Su, H. et al. ImageNet Large Scale Visual Recognition Challenge.Int J Comput Vis 115, 211–252 (2015). https://doi.org/10.1007/s11263-015-0816-y https://link.springer.com/article/10.1007/s11263-015-0816-y#citeas
https://lmsys.org/blog/2025-10-13-nvidia-dgx-spark/
Raissi, Maziar; Perdikaris, Paris; Karniadakis, George Em (2017-11-28). “Physics Informed Deep Learning (Part I): Data-driven Solutions of Nonlinear Partial Differential Equations. https://arxiv.org/abs/1711.10561
https://cnnespanol.cnn.com/2025/10/28/economia/amazon-acaba-recortar-14-000-empleos-trax
En este momento YUCA es la máquina de más potente en México con 2.3 PetaFlops https://yucaood.acarus.unison.mx
El más reciente es este https://www.gob.mx/presidencia/prensa/plan-mexico-avanza-se-anuncia-inversion-de-4-mil-800-mdd-de-cloudhq-para-la-construccion-de-6-centros-de-datos-en-queretaro?idiom=es-MX#:~:text=El%20director%20de%20operaciones%20de,las%20cadenas%20de%20suministro%20mexicanas.


