Selección de Tecnologías y Equipos en Liquid Cooling: Criterios de Decisión para Instalaciones Críticas
El problema detrás de la elección
Cuando un operador de data center evalúa el liquid cooling, la pregunta no es cuál tecnología es mejor en términos absolutos. La pregunta correcta es cuál tecnología resuelve mejor el problema específico de esa instalación: su densidad de carga, su infraestructura existente, su presupuesto y la capacidad operativa de su equipo.
El mercado ofrece cuatro familias tecnológicas diferenciadas: rear-door heat exchangers (RDHx), direct-to-chip cooling (D2C), inmersión monofásica e inmersión bifásica. Cada una opera en rangos de densidad distintos, exige niveles diferentes de inversión inicial y tiene implicaciones operativas que se extienden durante la vida útil de la instalación.
Cold plate liquid cooling concentra más del 55% del mercado por valor —superior a USD 3,100 millones en 2026 según Persistence Market Research— mientras que la inmersión bifásica registra la tasa de crecimiento más acelerada, impulsada por su eficiencia energética (PUE 1.02-1.03) y capacidad para soportar densidades extremas.
Reaclima ha trabajado con configuraciones híbridas en instalaciones como Foxconn GDL Vesta 8 y Amazon AWS Querétaro. En ambos casos, la selección de tecnología fue el resultado de un análisis técnico-económico riguroso, no de una tendencia de mercado.
Rear-Door Heat Exchangers (RDHx): punto de entrada al liquid cooling
Los rear-door heat exchangers son la opción de menor fricción de adopción. Se montan en la puerta trasera del rack estándar y capturan el calor que los servidores expulsan hacia el pasillo caliente, extrayéndolo mediante un intercambiador agua-aire antes de que se disperse por la sala.
El principio es directo: el aire caliente atraviesa un serpentín por el que circula agua fría (18-25°C). La temperatura del aire baja entre 10°C y 15°C antes de retornar al pasillo. El agua retorna al chiller o CDU (Coolant Distribution Unit) con un incremento de temperatura (Delta T) de 8-12°C.
Su principal ventaja es que no requiere modificar los servidores existentes ni alterar el cableado interno del rack. Esto elimina riesgos de garantía y permite una implementación por fases. Al remover entre 60% y 80% del calor generado, también reduce la presión sobre los sistemas de aire acondicionado de sala, lo que en muchos casos permite incrementar la densidad de carga sin ampliar la planta de enfriamiento existente.
La limitación técnica relevante aparece al superar los 25-30 kW por rack: el gradiente térmico disponible entre el aire del servidor y el agua de enfriamiento resulta insuficiente para transferir la totalidad de la carga. En ese punto, el RDHx cumplió su función como solución de transición y el análisis debe avanzar hacia tecnologías de contacto directo.
Entre los proveedores más establecidos en este segmento se encuentran Vertiv (Liebert CRV Chilled Water, 25-35 kW por rack), Schneider Electric (EcoBreeze, configuración pasiva y activa) y Rittal (LCP Rack Door con control de flujo variable).
Direct-to-Chip Cooling (D2C): precisión térmica en el componente
El enfriamiento direct-to-chip mediante cold plates es actualmente la tecnología de mayor adopción en instalaciones de alta densidad. A diferencia del RDHx, que trabaja sobre el aire de salida del rack, el D2C lleva el refrigerante directamente al componente que genera el calor: CPU, GPU, módulos de memoria DIMM y reguladores de voltaje (VRM).
Un cold plate es una base de contacto térmico —cobre o aluminio— con canales internos por los que circula el refrigerante. El diseño de esos canales define la capacidad de transferencia: los microcanales (0.5-2 mm de diámetro) incrementan la superficie de contacto y alcanzan coeficientes de hasta 25 W/cm²·K (Energy and Built Environment, 2024). Diseños más especializados como jet impingement o vapor chambers amplían esa capacidad para cargas con hotspots localizados.
La unión entre el chip y el cold plate se logra mediante materiales de interfaz térmica (TIM): pastas de alta conductividad (>5 W/m·K), almohadillas de grafito o, en aplicaciones de máximo desempeño, metal líquido (galio-indio).
El conjunto de cold plates de un rack se conecta a través del TCS (Technology Cooling System, o sistema de distribución de refrigerante por rack), que integra manifolds con conectores de desconexión rápida. Estos conectores permiten reemplazar un servidor sin drenar el sistema completo —las válvulas sellan automáticamente ambos lados al desconectar— y cuentan con sensores de temperatura y flujo que monitorean el Delta T por servidor en tiempo real.
Para el fluido refrigerante, la elección más frecuente es agua desionizada con glicol (30-50%), que combina buena conductividad térmica (>0.5 W/m·K) con protección contra corrosión y congelamiento. En aplicaciones donde el contacto accidental con componentes eléctricos es una preocupación, se emplean fluidos dieléctricos de ingeniería como 3M Novec 7000 o Chemours Opteon, que no conducen electricidad aunque requieren mayor caudal por su menor conductividad térmica (~0.06-0.08 W/m·K).
Los sistemas D2C remueven entre 70% y 80% de la carga térmica del servidor en los componentes de mayor generación de calor. Esto permite operar con temperaturas de aire ambiente en el rack de hasta 35-40°C y alcanzar PUE entre 1.08 y 1.15. En rangos de 40-80 kW por rack, el D2C presenta un TCO (Total Cost of Ownership) generalmente inferior al de la inmersión, dado que utiliza servidores estándar y su mantenimiento es menos especializado.
El ecosistema de proveedores ha madurado de forma notable. CoolIT Systems ofrece CDUs de hasta 2 MW y su solución ChilledDoor integra rear-door y D2C en una unidad compacta de 100 kW por rack. Asetek desarrolló monitoreo basado en inteligencia artificial para optimización predictiva de flujo, con integraciones certificadas en equipos Dell, HPE y Lenovo. Schneider Electric, tras adquirir Motivair Corporation en febrero 2025, lanzó CDUs de 2.5 MW integradas con su plataforma EcoStruxure. Boyd Thermal, incorporada a Eaton en 2025, lidera el diseño de cold plates personalizados con vapor chambers para clusters de GPU.
Esta consolidación de mercado a través de adquisiciones —Eaton-Boyd ($9,500 millones), Trane-Stellar Energy Digital, Daikin-Chilldyne— tiene una implicación práctica relevante: incrementa la estandarización de componentes, lo que mejora la disponibilidad de repuestos y el soporte técnico a largo plazo.
Inmersión Cooling: máxima densidad, máxima complejidad
La inmersión cooling elimina la capa de aire por completo: los servidores se sumergen directamente en un baño de fluido dieléctrico no conductor. No hay ventiladores, no hay cold plates, no hay transferencia de calor al aire de sala. La simplicidad conceptual contrasta con la complejidad operativa que implica su adopción.
Existen dos modalidades con lógicas térmicas distintas.
En la inmersión monofásica, el fluido permanece en estado líquido durante todo el ciclo. Los servidores se sumergen en tanques de 100-500 litros. El calor se transfiere al fluido por convección natural o forzada y el fluido caliente se bombea hacia un intercambiador externo o CDU donde cede energía al circuito de agua fría. La ausencia de vibración mecánica y la temperatura uniforme del baño reducen el estrés térmico en soldaduras y conexiones, lo que históricamente ha extendido la vida útil de los componentes en estas instalaciones. La limitación principal es la baja conductividad térmica de los fluidos dieléctricos: fluidos como 3M Novec 7100 (~0.06 W/m·K) requieren agitación activa para evitar hot spots, y en configuración pasiva la densidad práctica se limita a 50-60 kW por rack, alcanzando 80-100 kW con convección forzada.
La inmersión bifásica (2PIC) opera sobre un principio diferente: el fluido dieléctrico se elige con un punto de ebullición bajo (45-65°C), de modo que el calor de los componentes lo lleva a ebullición. El vapor generado asciende hacia un condensador en la parte superior del tanque, se enfría, condensa y retorna al baño por gravedad. Este ciclo de cambio de fase —evaporación y condensación— transfiere calor con una eficiencia muy superior a la convección líquida, lo que permite alcanzar PUE de 1.02-1.03 y densidades superiores a 150 kW por rack.
El precio de esa eficiencia es múltiple. El costo del fluido oscila entre $50 y $150 USD por litro: un tanque de 200 litros representa una inversión de $10,000-$30,000 USD solo en fluido, antes de considerar equipamiento. Los tanques deben mantener presión ligeramente superior a la atmosférica para evitar ingreso de humedad, lo que exige sistemas de compensación de volumen y válvulas de alivio. El servicio de servidores requiere extracción del tanque y protocolos de limpieza especializados. Y aunque las formulaciones recientes como 3M Novec 649 han reducido el Global Warming Potential (GWP) a menos de 10 —frente a valores superiores a 1,000 en fluidos anteriores— la gestión ambiental del fluido sigue siendo una variable operativa relevante.
En el segmento de inmersión, Submer Technologies lidera en Europa con SmartPods de 200 kW por unidad y proyectos de escala gigavatios en desarrollo en India. GRC (Green Revolution Cooling) opera en instalaciones de minería de criptomonedas y clusters HPC con su solución ElectroSafe. LiquidStack, adquirida por Lenovo, desarrolla sistemas bifásicos para hiperescala con proyectos piloto activos en Microsoft Azure. Asperitas enfoca sus soluciones en edge computing e instalaciones industriales compactas.
Cómo leer el trade-off entre tecnologías
Las cuatro tecnologías no compiten entre sí en el mismo espacio: operan en rangos de densidad, presupuesto y madurez operativa distintos, y cada una ofrece un perfil diferente de eficiencia frente a complejidad.
El RDHx opera sin tocar el servidor y sin cambiar la infraestructura de sala, lo que lo convierte en la única opción verdaderamente retrofitable para instalaciones con densidades moderadas. Su PUE —típicamente entre 1.3 y 1.5— no compite con las tecnologías de contacto directo, pero su velocidad de implementación (semanas frente a meses) y su bajo CapEx relativo lo hacen relevante cuando el objetivo es aliviar rápidamente una restricción térmica existente.
El D2C introduce complejidad de instalación y requiere que los servidores sean compatibles con cold plates, pero ofrece un salto de eficiencia sustancial (PUE 1.08-1.15) y puede escalar dentro del mismo rack a medida que crece la densidad. Es la tecnología donde el ecosistema de proveedores está más consolidado hoy, lo que facilita el procurement y reduce el riesgo de obsolescencia.
La inmersión monofásica es una solución intermedia que sacrifica la simplicidad del RDHx y parte de la eficiencia de la bifásica, pero elimina completamente el ruido mecánico y la dependencia de los ventiladores de servidor. Su adopción ha sido más lenta que la del D2C, en parte porque exige modificar los servidores (remover ventiladores y almacenamiento rotativo) y en parte porque los protocolos de mantenimiento aún no están estandarizados en la mayoría de los centros de datos.
La inmersión bifásica representa el extremo del espectro: máxima eficiencia, máxima densidad y máxima inversión inicial. Su complejidad operativa requiere equipos técnicos con capacitación especializada y cadenas de suministro de fluidos confiables. Es una tecnología en etapa de adopción temprana en el mercado latinoamericano, donde el soporte técnico local todavía es limitado.
Lo que ninguna de estas variables puede resolver de forma aislada es la interoperabilidad a largo plazo. Aquí es donde los estándares abiertos tienen un peso creciente en las decisiones de infraestructura crítica.
Estándares abiertos: OCP y Google Project Deschutes
La dependencia de un proveedor único en infraestructura de misión crítica representa un riesgo operativo y financiero que se materializa con el tiempo: descontinuación de componentes, incrementos de precio en repuestos, soporte técnico condicionado a contratos de servicio exclusivos.
Google liberó en 2024 las especificaciones de Project Deschutes —su diseño propietario de CDU— como estándar abierto. El proyecto define conectores estandarizados con protocolo de sellado común, interfaces de monitoreo basadas en Redfish API y dimensiones modulares compatibles con racks de 19" y configuraciones de pasillo. El Open Compute Project (OCP) publicó en 2025 sus especificaciones para Advanced Cooling Solutions (v2.1), que incluyen diseños de referencia validados para direct liquid cooling e immersion cooling por múltiples fabricantes.
La adopción de estos estándares no es una cuestión técnica menor: reduce los costos de ingeniería personalizada, acelera el procurement al abrir el mercado a más proveedores compatibles y permite la sustitución de componentes sin rediseño del sistema. Para instalaciones con horizontes de operación de 10-15 años, la compatibilidad con estándares abiertos es un criterio de selección con impacto directo en el TCO.
Conclusión
La selección de tecnología de liquid cooling define parámetros que se extienden durante toda la vida útil de la instalación: consumo energético, capacidad de escalar densidad, complejidad de mantenimiento y resiliencia frente a cambios en el ecosistema de proveedores. No hay una respuesta universal, pero sí hay un método: el análisis técnico-económico que considera simultáneamente el CapEx inicial, el TCO proyectado a 10-15 años y la madurez operativa del equipo que va a gestionar el sistema.
En proyectos como Foxconn GDL Vesta 8 y Amazon AWS Querétaro, Reaclima ha acompañado ese proceso de análisis desde la evaluación de carga térmica hasta el comisionamiento del sistema. La selección correcta no se improvisa en el momento del procurement: se construye sobre datos, sobre pruebas de concepto controladas y sobre una comprensión clara de los trade-offs que cada tecnología implica.
¿Tienes una instalación con densidades crecientes o un proyecto en etapa de diseño? Conversemos sobre las variables técnicas relevantes para tu caso.
Referencias
- Persistence Market Research. (2026). Data Center Liquid Cooling Market Size & Forecast 2026-2033.
- Energy and Built Environment. (2024). Liquid cooling of data centers: A necessity facing challenges. ScienceDirect.
- Data Center Dynamics. (2025). Chilling out in 2025: A year in data center cooling.
- MarketsandMarkets. (2025). Data Center Liquid Cooling Market Report 2026-2033.
- AIRSYS North America. (2026). Data Center Trends & Cooling Strategies to Watch in 2026.
- Open Compute Project. (2025). Advanced Cooling Solutions Specifications v2.1.