Victor Avelar,analista de Centros de Datos de Schneider Electric,explicó que la IA exige rediseñar los Centros de Datos para responder a sus cargas de trabajo altamente demandantes.
Foto: DPL News
Comparte
Querétaro,México. Ante un panorama donde la Inteligencia Artificial (IA) avanza más rápido que las previsiones,Victor Avelar,Chief Research Analyst de Data Center Research & Strategy en Schneider Electric,advirtió que el diseño tradicional de Centros de Datos está quedando obsoleto.
El crecimiento explosivo en la potencia de las GPU (Unidades de Procesamiento Gráfico),la densidad por rack y las exigencias de redes internas está forzando una reinvención total de la infraestructura para sostener la próxima ola de IA Generativa y de razonamiento.
En el marco del evento Data Cool 2025,organizado por Schneider Electric,Victor Avelar explicó que las cargas de trabajo de IA se dividen en dos: el entrenamiento,donde los modelos ajustan millones de parámetros hasta alcanzar la precisión deseada,y la inferencia,que pone esos modelos en operación para generar respuestas.
Aunque la inferencia suele considerarse menos intensiva que el entrenamiento,nuevas modalidades como el “Chain of Thought” —que implica razonamiento paso a paso,como el del modelo Gemini— están elevando el consumo de memoria,potencia y servidores, rompiendo esa percepción.
También lee: IA calienta los Centros de Datos: Schneider Electric apuesta por el enfriamiento líquido como estándar del futuro
El entrenamiento es similar a enseñar a un niño: el algoritmo no sabe distinguir objetos y debe ajustar millones de “perillas” (parámetros) hasta alcanzar un nivel de precisión predeterminado. Este proceso requiere grandes volúmenes de datos,mucho tiempo y un consumo energético elevado.
Mientras tanto,una vez entrenado,el modelo se utiliza para generar respuestas o predicciones. A esto se le conoce como inferencia y puede requerir desde un servidor hasta varios,dependiendo del tamaño del modelo y la compresión aplicada.
La compresión reduce memoria y costos,pero también puede disminuir la precisión. La inferencia demanda baja latencia y redundancia para asegurar disponibilidad y evitar pérdidas de ingresos,precisó el experto.
El especialista contrastó el papel de las CPU (Unidad Central de Procesamiento) —rápidas pero secuenciales— con el de las GPU,que procesan tareas en paralelo y son la base del cómputo para la IA.
Empresas como Nvidia dominan este mercado,con chips cuyo consumo se ha disparado: el salto de los modelos V100 (300 W) a los B300 (1,400 W) refleja un incremento casi quíntuple en potencia,pero con un rendimiento más de 120 veces superior.
Avelar señaló que el avance acelera el entrenamiento y justifica la inversión: “El tiempo es dinero”,subrayó Avelar. Pero también obliga a repensar el suministro energético,pues los Centros de Datos ya alcanzan densidades de 132 kW por rack,con proyecciones de hasta 1 MW por rack para 2027.
Para que miles de GPU trabajen en conjunto,es esencial una red de cómputo (compute fabric) capaz de intercambiar datos con mínima latencia.
La estrategia de las empresas apunta a concentrar la mayor cantidad de servidores en un solo rack,conectados con cobre para reducir costos,y enlazar racks entre sí con fibra óptica.
Avelar también advirtió sobre el impacto de los picos de consumo: las GPU pueden aumentar su demanda hasta un 50% por milisegundos,lo que exige infraestructura eléctrica capaz de responder sin retrasos,especialmente en escenarios de cómputo sincrónico,donde todas las GPU incrementan su potencia simultáneamente.
No te pierdas: Michael Bushong,de Nokia,desmonta mitos sobre la IA en los Centros de Datos
La conclusión es clara: la IA no sólo impulsa nuevos modelos de negocio,sino que redefine los estándares técnicos y económicos de los Centros de Datos.
El diseño tradicional cede paso a infraestructuras altamente densas,escalables y resilientes,donde la eficiencia energética y el enfriamiento son tan estratégicos como el propio poder de cómputo.
“Estamos apenas al inicio de un viaje extraordinario”,dijo Avelar. Y para la industria –aseguró–,ese viaje será tan competitivo como demandante.