Pour encourager la recherche autour des logiciels de type AI, qui « apprennent » et se bonifient au fil du temps, Facebook vient d'annoncer son intention de libérer le design de son serveur Big Sur. Conçu pour accompagner les travaux de Facebook dans le domaine de l’apprentissage machine, les serveurs Big Sur ont été conçus en interne sur le modèle Open Compute Project (OCP). Rappelons que ce programme vise à encourager le partage d’informations techniques en s'inspirer des initiatives Open Source dans le logiciel pour concevoir et développer des solutions ouvertes et efficaces dans le domaine des solutions pour centre de calcul (serveurs, stockage et réseau).
Une utilisation courante pour l'apprentissage machine est la reconnaissance d'image, où un programme étudie une photo ou une vidéo pour identifier les objets dans le cadre. Mais, elle peut être appliquée à une grande quantité de données, afin de repérer des choses comme des spams dans une messagerie électronique ou des fraudes à la carte bancaire. Facebook, IBM, Google et Microsoft travaillent d’arrache-pied sur des programmes de machine learning afin de fournir des services plus « intelligents » et même un jour développer les premières véritables AI. Facebook a déjà publié en open source le code source d’un de ses logiciels AI, mais c'est la première fois qu'il libère un design matériel.
Cette image du Big Sur montre une grande unité de circulation de l'air à l'intérieur du serveur.
Le serveur Big Sur repose principalement sur des GPU, qui sont souvent plus efficaces que les processeurs pour les tâches d'apprentissage machine. Cette machine peut accueillir jusqu’à 8 cartes 3D haute performance qui consomment chacune jusqu'à 300 watts, et peut être configuré de plusieurs façons. Facebook indique que son système basé sur des GPU est deux fois plus rapide que son serveur de précédente génération de matériel. « Et la répartition des tâches à travers huit GPU nous a permis de réduire par deux et d’optimiser le trafic des données sur notre réseau » ajoute la société dans un billet de blog.
Un refroidissement par air
Un des points remarquables à propos du Big Sur est qu’il ne nécessite pas de système de refroidissement spécial ou d'une infrastructure spécifique a déclaré Facebook. Les ordinateurs haute performance - les HPC - génèrent beaucoup de chaleur, et de les garder au frais peut s’avérer très coûteux. Certains sont même immergés dans des fluides exotiques pour les empêcher de surchauffer.
Big Sur n'a pas besoin de tout cela, selon Facebook. Il n'a pas encore publié les spécifications matérielles, mais les images montrent une grande unité de circulation de l'air à l'intérieur du serveur qui contient sans doute des ventilateurs qui soufflent de l'air frais à travers les composants. Facebook affirme qu'il peut utiliser les serveurs dans ses centres de calcul refroidi à l'air, qui évitent justement les systèmes de refroidissement industriels afin de réduire les coûts d’exploitation.
Un design simplifié
Comme beaucoup d'autres matériels Open Compute Project, il est conçu pour être aussi simple que possible. Les membres de l'OCP sont particulièrement réticents à toutes les «différenciations futiles » que les fournisseurs de serveurs introduisent dans leurs produits. Elles font grimper le prix des machines et les rendent plus difficiles à gérer dans un parc hétérogène.
« Nous avons retiré les composants peu utilisés, et pour ceux qui tombent fréquemment en panne – disques durs et DIMM - peuvent maintenant être retirés et remplacés en quelques secondes », a déclaré Facebook. Toutes les tirettes que les techniciens sont censés toucher sont de couleur verte, de sorte que les machines peuvent être nettoyées rapidement, et même la carte mère peut être retirée en une minute. « En fait, Big Sur est presque entièrement accessible sans outil - les dissipateurs de chaleur du processeur sont les seules choses qi nécessitent un tournevis », selon Facebook.
Une publication au prochain Open Compute summit ?
Le partage de ce design matériel n’est toutefois pas totalement altruiste : Facebook espère bien que d'autres essayeront et suggéreront des améliorations. Et si d'autres grandes entreprises demandent à des fournisseurs de serveur de fabriquer leurs propres systèmes Big Sur, les économies d'échelle devraient contribuer à faire baisser les coûts d’acquisition de Facebook. La société indique également qu'elle va tripler ses investissements dans les GPU de sorte qu'elle pourra décliner l'apprentissage machine sur plusieurs de ses services. Facebook n'a pas encore précisé quand il donnera les spécifications techniques de son Big Sur. Le prochain sommet de l'OCP est attendu en mars prochain aux États-Unis, ce serait une bonne occasion pour le faire.