Bienvenido al primer post de 2026. Empezamos suavecito: con una subida de precios en la nube. Feliz año, ¿no?
Durante años nos vendieron la idea de que la nube era como el buen vino: con el tiempo, mejor y más barata.
Pues AWS acaba de demostrar que no firmó nada de eso.
- Subió alrededor de un 15% el precio de algunos EC2 Capacity Blocks for ML con GPUs NVIDIA H200 (p5e.48xlarge y p5en.48xlarge).
- El cambio se dio el primer fin de semana de enero, tranquilo, sin anuncio rimbombante, solo una actualización en la página de precios.
Nada de comunicado épico, nada de “querida comunidad”. Solo un numerito más grande donde antes había otro más pequeño.
¿Qué subió exactamente?
Aquí no estamos hablando de la típica instancia baratita donde corre tu blog. Estamos hablando de hierro de lujo para IA.
- La p5e.48xlarge pasó de unos 34.61 a 39.80 dólares por hora en la mayoría de las regiones.
- La p5en.48xlarge saltó de aproximadamente 36.18 a 41.61 dólares por hora.
- En regiones como US West (N. California), el incremento es todavía más doloroso: de 43.26 a 49.75 dólares por hora para la p5e.
Estas instancias vienen con ocho GPUs NVIDIA H200 cada una, pensadas para entrenar modelos grandes, LLMs, difusión, todo lo “cool” y caro del mundo de la IA.
¿Qué demonios es un Capacity Block?
Si nunca has usado uno, piensa en esto como “rentar una fila de GPUs con fecha y hora”.
- Reservas capacidad GPU específica para una ventana de tiempo (de un día a varias semanas).
- Pagas por adelantado a un precio “bloqueado” para asegurarte que cuando lances tu entrenamiento, las GPUs estén ahí y no se las haya llevado otro.
- Puedes reservar hasta 8 semanas antes, ideal para equipos con entrenamientos largos y pipelines planeados al milímetro.
En resumen: esto no es para el side project del domingo; es para equipos con presupuestos serios y deadlines que no perdonan.
La demanda de GPUs se puso seria
¿Por qué subir precios justo aquí y no en todos lados? Porque las GPUs tope de gama están más peleadas que boletos para un concierto de moda.
- AWS dice que los precios de Capacity Blocks son dinámicos y responden a patrones de oferta y demanda.
- La fiebre por entrenar modelos grandes, fine-tuning por todos lados y empresas queriendo “meter IA en todo” está saturando la capacidad disponible.
- Si hay muchos compitiendo por un recurso escaso, el que controla el recurso… ajusta el precio. Clásico.
Para acabar de adornar: en 2025 AWS presumió rebajas de hasta 45% en varias instancias GPU on‑demand y Savings Plans, justo las que se usan mucho pero no entran en este esquema de Capacity Blocks.
Es decir: te bajaron de un lado, te suben de otro. Equilibrio en la fuerza, pero en versión financiera.
¿A quién le debe preocupar esto?
Si tu mundo es EC2 chiquito, RDS y alguna lambda perdida, probablemente hoy no pase nada en tu factura.
Pero si estás en el lado GPU-intensivo, esto sí te raspa.
Te pega si:
- Entrenas modelos grandes de IA/ML o corres pipelines pesados de entrenamiento.
- Dependías de Capacity Blocks para asegurar capacidad GPU y evitar dramas con spot o falta de disponibilidad.
- Haces FinOps y tu Excel de costos cloud ya venía sudando con los números actuales.
Un 15% más en algo que ya era caro no es “ah, ni se nota”. En cuentas grandes, son miles o millones anuales extra.
El mito de “la nube siempre baja”
Durante años, el relato fue más o menos este:
- Más escala → más eficiencia.
- Más eficiencia → menos costos.
- Menos costos → “miren, bajamos precios otra vez”.
Eso funcionaba muy bien cuando el cuello de botella era almacenamiento o CPU. Pero ahora el protagonista es otro: GPU de última generación para IA.
Y aquí la ecuación cambia:
- La demanda crece más rápido que la oferta.
- Fabricar y desplegar estas GPUs no es trivial ni barato.
- Los clientes de este segmento suelen tener bolsillos profundos.
Conclusión: los precios pueden subir, y ya lo estamos viendo.
Lo que esto implica para arquitectos y equipos de ML
Más allá del chisme, esto sí debería encender algunas alarmas sanas en los equipos técnicos y financieros.
Cosas que vale la pena repensar:
- Diseño de workloads: ¿realmente necesitas siempre la última GPU disponible o puedes mover parte del entrenamiento/inferencia a hardware menos caro?
- Planeación: los Capacity Blocks siguen siendo útiles, pero ahora el costo de “asegurar capacidad” es más alto; hay que justificarlo mejor.
- Gobernanza y FinOps: este tipo de cambios silenciosos hace evidente lo importante que es monitorear precios y ajustar políticas internas.
También pone sobre la mesa la posibilidad de:
- Evaluar otros proveedores cloud que quieran usar esto como argumento de venta.
- Explorar estrategias híbridas, on‑prem con GPUs dedicadas para ciertas cargas, y nube para picos o experimentación.
¿Y ahora qué?
Por ahora, AWS dice que este ajuste responde a los patrones de oferta y demanda de este trimestre y que su “compromiso de no subir precios en modelos fijos como On‑Demand y Savings Plans se mantiene”.
Traducción libre: “no te preocupes… salvo que estés en el segmento más caro y con GPUs premium, ahí sí, suerte”.
La próxima revisión de precios de Capacity Blocks está marcada para abril de 2026, así que este no necesariamente es el último giro de tuerca del año.
La pregunta interesante es si esto será un caso aislado… o el anuncio no oficial de una nueva era de precios en la nube centrada en IA.
Nos tocó empezar 2026 con una subida de precios y un recordatorio importante: en la nube nada está garantizado, excepto la factura a fin de mes.
Ajusta tus modelos, revisa tus hojas de cálculo y no te creas demasiado eso de “la nube siempre baja”.
Nos vemos pronto, en el siguiente episodio de “la infraestructura te sonríe… hasta que ya no”.