Una interrupción técnica en Amazon Web Services (AWS) ha provocado problemas generalizados en aplicaciones y servicios digitales de todo el mundo. Desde primera hora de la mañana, usuarios y empresas han reportado errores de conexión, latencias y caídas intermitentes en plataformas que dependen de la infraestructura en la nube de Amazon.
La incidencia comenzó a sentirse en torno a las 09:00 (hora peninsular), con picos de reportes en portales como Downdetector. Entre los afectados figuran Alexa, Prime Video, Perplexity, Fortnite, Clash Royale, Roblox, Snapchat, Reddit y herramientas como Canva, Duolingo o Zoom, así como bancos y operadores en varios países. Aunque gran parte del servicio se estabilizó pasado el mediodía, la recuperación fue paulatina y en algunos casos aún se notaron altibajos.
Qué ha pasado y dónde se originó
La propia AWS indicó un aumento de errores y latencias en la región US-EAST-1 (Virginia del Norte), uno de sus núcleos de cálculo más críticos. La investigación señaló como foco un problema de DynamoDB y su interacción con la resolución DNS, lo que impidió que muchas aplicaciones encontrasen rápidamente los recursos necesarios para funcionar.
Hacia las 11:00 la compañía ya hablaba de mitigaciones en marcha y de “señales claras de mejora” en varios servicios. Posteriormente, en torno a las 12:30, AWS comunicó que el problema subyacente de DNS estaba mitigado y que la mayoría de operaciones volvían a la normalidad, si bien persistían limitaciones puntuales hasta completar la resolución.
Entre los flecos técnicos, AWS reconoció errores elevados al lanzar nuevas instancias EC2 en US-EAST-1, algo esperable cuando el tráfico retenido durante la caída se reintenta en masa. La recomendación pasaba por reintentar peticiones y, en ciertos casos, vaciar caché para restablecer la resolución de endpoints.
Servicios y sectores afectados
El impacto fue transversal. Además de productos de Amazon como Alexa, Amazon.com, Prime Video, Amazon Music o dispositivos Ring, fallaron o funcionaron a trompicones redes sociales y mensajería (Snapchat, Reddit), juegos online (Fortnite, Clash Royale, Roblox, Pokémon Go), herramientas de trabajo (Zoom, Slack, Trello), plataformas creativas (Canva), IA generativa (Perplexity), medios (The New York Times, The Wall Street Journal) y servicios financieros (Coinbase, Robinhood, Venmo).
En España se registraron dificultades intermitentes en BBVA, Santander, CaixaBank e ING, así como en Movistar, Orange y Vodafone. Hubo además contratiempos en Ticketmaster, que retrasó el inicio de ventas para conciertos (como la gira de La Oreja de Van Gogh) por fallos en las pasarelas. En aeropuertos, kioscos y sistemas de aparcamiento también reportaron incidencias puntuales.
Fuera de España, usuarios de Estados Unidos informaron de problemas para pagar o iniciar sesión en servicios como Venmo, además de caídas en Lyft y fallos en cuentas de HMRC en Reino Unido. Portales de monitorización recogieron millones de reportes de más de un millar de empresas a escala global.
Cronología de una caída y su recuperación
Los primeros avisos llegaron sobre las 08:40–09:00 (hora peninsular). A media mañana se concentró el pico de incidencias, con muchas webs sin cargar imágenes, errores al iniciar sesión o servicios que directly no respondían. Hacia las 11:00, AWS identificó la causa probable en DynamoDB/DNS y activó mitigaciones.
Minutos después comenzaron a percibirse mejoras graduales. A las 12:30, Amazon indicó que el fallo de DNS estaba controlado, pero que la normalización sería escalonada y que algunas operaciones podían seguir limitadas mientras los sistemas asimilaban la avalancha de peticiones.
Por la tarde, aunque el servicio era mayoritariamente operativo, persistieron errores al crear nuevas instancias EC2 en US-EAST-1, al tiempo que ciertos servicios de terceros continuaban con comportamiento irregular según la ruta de su tráfico y la región en la nube.
Alcance global y dependencia de la nube
La incidencia ha evidenciado la alta concentración de cargas de trabajo en pocos proveedores y regiones. Cuando una pieza clave falla, se generan efectos en cascada en miles de aplicaciones. Expertos en tecnología subrayan la necesidad de resiliencia (multirregión/multinube) para evitar que un evento localizado impacte en servicios esenciales en cuestión de minutos.
Empresas que confían en AWS por su escala y eficiencia también deben establecer salvaguardas técnicas: segmentar dependencias, replicar datos críticos, probar planes de continuidad y, cuando proceda, diversificar cargas hacia otros proveedores para mitigar puntos únicos de fallo.
Pagos con tarjeta: un incidente aparte
En paralelo a la caída de AWS, Redsys informó de una interrupción temporal y parcial en su infraestructura de comunicaciones que afectó a datáfonos, pagos con tarjeta y Bizum. La propia plataforma aclaró que no estaba vinculada con el incidente de la nube de Amazon, tratándose de dos eventos distintos.
Qué pueden hacer empresas y usuarios
Para clientes corporativos, los especialistas recomiendan copias de seguridad robustas, diseño multirregión y, cuando sea viable, estrategias multinube. Conviene planificar escenarios de degradación (modo sólo lectura, colas, reintentos exponenciales) y preparar canales alternativos para funciones como pagos y autenticación.
Para usuarios, es práctico disponer de métodos de pago alternativos, guardar información esencial sin conexión, extremar la cautela ante phishing durante incidencias y revisar la privacidad de aplicaciones en Android. Si una app falla, suele ayudar reintentar más tarde, actualizar o vaciar caché DNS, mientras los proveedores completan la recuperación.
La caída dejó una imagen nítida: un fallo de DNS asociado a DynamoDB en la región US-EAST-1 bastó para que apps y webs de medio mundo funcionaran a trompicones durante horas; la normalidad volvió de forma escalonada y la conversación queda ahora en cómo reforzar la resiliencia para que la próxima vez nos pille con mejores planes de contingencia.
