« Chaque jour, les utilisateurs téléchargent environ 300 millions de photos, et davantage à certaines occasions», a déclaré le vice-président lors la conférence Structure Europe qui s'est tenue à Amsterdam mercredi. « C'est au moment de Halloween que nous observons les plus gros téléchargements de photos. Cette seule journée, les utilisateurs peuvent télécharger entre 1 et 2 milliards de photos », a-t-il indiqué. Ce genre de photos prises à l'Halloween perdent vite leur intérêt, et quelques jours ou quelques semaines après leur mise en ligne, elles n'intéressent probablement plus personne.
Mais en vertu de « notre contrat passé avec nos utilisateurs, nous ne pouvons pas supprimer les données quand elles ne sont pas utilisées. Nous devons donc les conserver », a-t-il ajouté. De là est venue l'idée de stocker ces photos dans une sorte de « chambre froide » pour données, a déclaré Jay Parikh. Pour ce faire, « Facebook envisage de construire un nouveau datacenter avec différentes solutions de stockage, d'autres types de serveurs et équipements réseau qui consomment moins d'énergie et sont moins coûteux que les datacenter existants - tout cela sans changer les temps de réponse des serveurs », a déclaré le vice-président de l'ingénierie des infrastructures de Facebook.
Gérer finement la demande des photos
Mais, quelle sera l'efficacité de ce type « de stockage à froid » envisagé par Facebook ? En général, la baisse des coûts et la réduction de la consommation électrique dans les centres de calcul se font au détriment de la vitesse d'accès. Par exemple, le stockage de données sur bandes permet de réduire la consommation d'énergie, mais ralentit fortement le temps d'accès aux données. Amazon Web Services a choisi une solution intermédiaire pour son service de stockage dans le cloud Glacier, qu'il propose comme alternative au stockage sur bande. Le service est optimisé pour les données qui sont rarement utilisées et pour lesquelles un temps de récupération de plusieurs heures reste acceptable. Mais, ce service « serait beaucoup trop lent pour Facebook », comme l'a précisé Jay Parikh. « Même si un utilisateur veut retrouver une photo publiée il y a 5 ou 10 ans en arrière, nous ne pouvons pas lui dire de revenir 24 heures plus tard. Non, la consultation doit pouvoir continuer à se faire en temps réel », a t-il déclaré.
La plupart des datacenters actuels sont optimisés de façon à réserver l'énergie pour les tâches qui ont besoin d'une puissance de calcul élevée. « La technologie du « stockage à froid » envisagée par Facebook prend un peu le contrepied », a expliqué le vice-président de l'ingénierie des infrastructures de Facebook. « Il faut beaucoup, beaucoup d'espace, mais il n'est pas nécessaire d'avoir autant de puissance », a-t-il déclaré, ajoutant que « tout ce qui concerne le datacenter doit être repensé pour traiter le problème à l'échelle de Facebook ». « Au niveau supérieur, Facebook travaille sur un logiciel qui sera chargé de déterminer comment et où stocker une partie du contenu dans l'infrastructure en fonction de son âge », a déclaré Jay Parikh. « Cela signifie que les copies des données vont se déplacer au fil du temps et vont utiliser différents espaces de l'infrastructure que nous aurons optimisés en tenant compte de l'âge de ce contenu. Certains éléments que nous allons placer dans la couche logicielle vont permettre d'offrir une réponse rapide, mais le stockage des données sera plus efficace et moins coûteux », a-t-il encore déclaré. Une sorte de solution multi-tiering à très grande échelle spécialement adaptée aux besoins de Facebook.
Dans un an ou deux, « le stockage à froid » fera partie de l'infrastructure de Facebook », a ajouté Jay Parikh. Facebook envisage de rendre public et de partager certains éléments pertinents de son projet dans le cadre de l'Open Compute Project. Cette initiative lancée par le réseau social consiste à appliquer le modèle de collaboration Open Source à l'environnement hardware des datacenters.