Cette fois point d'erreur humaine. Si on se souvient - entre autre - de la panne massive des services cloud AWS liées à une intervention malencontreuse d'un opérateur, la dernière qui vient d'arriver est cette fois entièrement technique. Jeudi après-midi, une panne de courant dans un des datacenters du géant américain du cloud a en effet impacté les utilisateurs de ses services EC2 sur la région US-East-1. « A 2h52 PM un petit pourcentage de serveurs EC2 ont perdu leur alimentation sur une seule Availability Zone dans la région US-EAST-1 », a indiqué AWS sur sa page de support. « Cela a provoqué des altérations d'instances et dégradé les performances de quelques volumes EBS dans cette zone de disponibilité ».
Bien que le fournisseur indique que la panne d'alimentation a été réparée au bout de 30 minutes, les impacts opérationnels se sont ressentis sur plusieurs heures. D'après The Register, à 7h30 PM plusieurs instances n'étaient pas revenues car elles étaient hébergées sur du matériel qui a été plus durement touché par la panne d'alimentation. « Alors que nous continuons à travailler pour remettre en service toutes les instances et les volumes affectés dès que possible, nous recommandons de remplacer toutes les instances restantes concernées ou les volumes », a fait savoir AWS.
Comme quoi vive un bon pca/pra interne avec groupe électrique.
Signaler un abusAmazon avec son soit disant niveau ne devrait même pas subir cela. Bref du cloud low cost, et mal pensé en terme de secours et redondance électrique.
Le mieux sont des solutions hybride et pour ce qui peuvent tout interne avec une infra pca/PRA refondé.