Flux RSS
Infrastructure serveur
2924 documents trouvés, affichage des résultats 571 à 580.
< Les 10 documents précédents | Les 10 documents suivants > |
(18/03/2011 14:20:02)
ExtremeLabs a testé vCloud Connector
Dans une configuration classique de cloud sous VMware, vous vous reposez sur des hyperviseurs ESX et vous aurez besoin d'exporter les machines virtuelles vers un emplacement temporaire, puis les importer dans un autre cloud. Vcloud Connector permet de réaliser cette démarche en une seule fois. La solution gère l'ensemble des clouds comme une appliance et accomplit la tâche de déplacer une machine virtuelle (VM) d'un cloud à l'autre sans phase intermédiaire.
Tom Henderson et Brendan Allen, deux chercheurs de la société ExtremeLabs, ont installé une machine virtuelle dans leur infrastructure cloud VMware, puis ont ajouté le plug-in. Voici leur retour d'expérience. Sans rien faire d'autre qu'un clic droit sur « VM asset objects», nous avons déplacé plusieurs éléments des VM depuis notre NOC (Network Operation Center)de nFrame en utilisant quelques instances vCloud qui ont été allouées auprès de BlueLock, un service d'hébergement cloud basé à Indianapolis. Les entreprises gardent généralement plusieurs instances et les activent en fonction de leur besoin (et du coût). Nous avons demandé aux personnels de BlueLock si nous pouvions avoir quatre vClouds distincts, chacun avec des instances capables de supporter une allocation standard de deux processeurs virtuels, quelques disques et un peu de mémoire. D'un clic droit les machines virtuelles sont transférées vers la destination cible. Dans notre cas, le déplacement s'est déroulé sans problème comme en situation de laboratoire.
Pour les besoins du test, nous nous sommes connectés à I-Land Internet Services, un autre fournisseur de vCloud, auquel nous avons acheté quelques instances. Nous l'avons provisionné de manière identique. Après avoir installé le plug-in, nous avons commencé à déplacer les machines virtuelles dans les clouds, sans problèmes comme si elles étaient à l'intérieur du laboratoire ou chez
nFrame.
Vademecum et critiques
L'installation de VCC est très simple. Il suffit d'un PC sous Windows avec au moins Internet Explorer 7 et vSphere dans une version 4.X. Deuxièmement, nous avons téléchargé un fichier OVF qui contient l'appliance virtuelle. Une fois importé dans notre infrastructure, nous avons lancé l'installation de VM, la connexion réseau, des identifiants et des mots de passe. Ensuite, nous raccordons VCC à à vCenter via un serveur web pour l'utiliser comme un client vSphere.
Mais tout n'est pas aussi simple. L'interface graphique ne se met pas corectement à jour si des modifications extéieures ont été apportées à vCloud Director. Par exemple, nous avons créé un nouveau catalogue dans le vCloud Director de BlueLock et il ne s'est pas affiché jusqu'à ce que nous ayons redémarré le client vSphere. L'idéal aurait été un rafraîchissement des données. VMware explique que c'est sa façon de procéder, mais nous parions qu'il changera car c'est vraiment gênant. La commande Reload Data, utilisée pour mettre à jour l'état des objets, ne fonctionne pas non plus. Il est vrai que VCC est seulement en version 1.0.
Dans l'ensemble, le vCloud Connector est séduisant et pratique. Les limitations sont que vSphere nécessite IE7 + seulement, il n'y a pas actuellement d'actualisation efficace de l'état des objets et enfin il ne fonctionne pas avec d'autres outils VMware de transferts de machines virtuelles, comme High Aivailability Clustering ou VMotion. Mais c'est gratuit.
Symantec oriente ses produits de stockage vers le cloud
L'une des fonctionnalités que Symantec envisage d'apporter s'appelle Enterprise Object Store. Celle-ci utilisera un espace de nommage global pour permettre l'abstraction hétérogène de tout fichier de données. Selon Don Angspatt, vice-président du marketing produit de l'activité stockage et gestion de la disponibilité de Symantec, le fichier système pourra atteindre une taille à l'échelle du pétaoctet et sera accessible par HTTP. « Cela crée un pool de référence global. Il est donc possible d'accéder aux données de la même façon qu'on pourrait le faire depuis un téléphone portable, » explique-t-il. Dans la version finale de Storage Foundation 6.0, Symantec prévoit également d'inclure une fonction de stockage cloud hybride, via son outil Smart Tier for Oracle. Aujourd'hui, Smart Tier déplace de façon dynamique les données vers le hardware le plus ou le moins performant, en fonction de modèles et de configurations prédéfinies. La fonction de stockage cloud hybride permettra de sauvegarder les données à la fois en local et de les archiver automatiquement chez un fournisseur de services cloud public. Cette solution donne également la possibilité de basculer automatiquement vers le cloud dans le cas où l'accès local aux données sauvegardées s'avère impossible.
Gérer l'infrastructure cloud
La dernière mise à jour de Storage Foundation de Symantec (version 5.1) date du mois de novembre 2010. Cette version comprend une option de gestion par classes de service - or, argent ou bronze - qui offre aux administrateurs la possibilité d'automatiser et de personnaliser la fonction de stockage des applications selon des critères de performance et des niveaux de protection. Dans la prochaine version, Symantec ajoutera un utilitaire appelé « Virtual Business Services » qui donne aux administrateurs la possibilité de gérer une infrastructure de cloud privé - serveurs, applications métiers et stockage - à travers une seule interface utilisateur. Selon le vice-président de Symantec, grâce à l'utilisation des API déjà présentes dans le logiciel Veritas Cluster Service de Symantec, Storage Foundation 6.0 partagera ses ressources sous une seule interface de gestion - entre le web en front end, les applications métiers, les bases de données et les données stockées en arrière-plan.
Orchestrer les solutions multiplateformes
Veritas Cluster Server (VCS) de Symantec est une solution multiplateforme de clustering minimisant les temps de non-productivité. Il permet à ce titre d'automatiser le basculement des applications et des bases de données au niveau d'un centre de calcul ou entre plusieurs centres distant. « Le cloud étant constitué d'une infrastructure hétérogène, cela donne une visibilité de bout en bout, » a déclaré Don Angspatt. « Aujourd'hui, pour gérer un cloud globalement, il est nécessaire d'avoir un administrateur pour chaque niveau. Notre solution consiste à réduire cette complexité. » Storage Foundation de Symantec dispose déjà de fonctionnalités de reporting et d'équilibrage de charge. « Celles-ci seront désormais étendues au-delà de l'infrastructure de stockage, à toutes les applications métiers, » a ajouté Don Angspatt.
Etude Gartner : des datacenters plus denses et moins énergivores
Sur le premier point, la conception même des centres de données, le Gartner remarque que les datacenters actuels ont été créés pour la plupart à l'ère du mainframe. Donc, pour une performance moyenne selon les critères actuels. Il y a par exemple peu de variation possible de température ou de consommation énergétique.
Aujourd'hui, les exigences sont différentes sur les systèmes mécaniques et électriques, la composition, la charge de travail et l'âge du matériel. De nouveaux modèles arrivent ajoutant des zones de densité différentes suivant les charges de travail. Les zones secondaires s'occupent des applications consommant une quantité uniforme d'énergie. Les zones à faible densité soutiennent l'équipement de faible puissance.
Le green IT laissé pour compte
Concernant l'efficacité énergétique, peu de gestionnaires de datacenters y prêtaient attention. Sauf s'ils étaient poussés par l'opinion publique. Les nouveaux gestionnaires, eux, s'y penchent sérieusement. Les nouveaux centres respectent donc de nouvelles normes.
Les gestionnaires se préoccupent également de la densité des équipements (racks et serveurs) dans l'environnement du datacenter. La plupart des centres de données étant actuellement sous utilisés. La densité moyenne serait de 60% dans le monde actuellement. Il faudrait parvenir à 85 ou 90%. L'avènement du cloud computing devrait permettre d'atteindre ces nouveaux ratios.
Ce fameux cloud va permettre de transférer une partie de la charge de travail « dans le nuage » donc de libérer plus facilement de l'espace au sol et de la puissance. De nombreuses entreprises utilisent déjà des installations de colocalisation comme mécanisme de débordement. Toutefois, dans ce cas, la ressource de calcul est toujours détenue et gérée par le propriétaire de l'application. Avec le cloud, ce sera le rôle de l'hébergeur.
Crédit photo : D.R.
Le prix des mémoires s'enfamme avec les évènements nippons
Les principaux fournisseurs japonais ont déclaré que les usines où sont fabriquées ces puces ont été largement épargnées par le séisme, ou bien qu'elles se trouvent dans des zones où ne s'appliquent pas les restrictions en électricité susceptibles d'arrêter la production. Si l'on prend acte de ces déclarations, on peut penser que les marchés de la mémoire sur-réagissent aux évènements. Mais, selon les analystes, ces augmentations de prix révèlent peut-être un problème encore plus grave pour l'industrie mondiale du processeur : les fournisseurs japonais de composants et de matériels, essentiels à la production de ces processeurs, ont subi des dommages.
Ainsi, le prix de la mémoire flash NAND, support de stockage principal des iPad, iPhone et autres appareils mobiles, a augmenté de près de 20 % depuis le tremblement de terre, pendant que les entreprises tentaient d'estimer si les usines fabricant ces puces avaient été endommagées. DRAMeXchange, tableau de bord des échanges sur les mémoires NAND, DRAM et autres puces, fait remarquer que, alors que les prix ont augmenté, le nombre de vendeurs est resté faible, signe que la plupart des entreprises préfèrent conserver leurs stocks de puces plutôt que de réaliser un profit rapide. Selon Jim Handy, analyste chez Objective Analysis, « le marché du NAND a réagi très fortement parce que le Japon fournit 40 % des puces flash NAND dans le monde. »
Toshiba se veut rassurant
Toshiba, l'un des plus grands fournisseurs de NAND au niveau mondial, a déclaré qu'aucune de ses usines de mémoire flash NAND n'avait été endommagée par le tremblement de terre ou le tsunami. Une seule est située dans la zone du tremblement de terre, à Kitakami City, dans la préfecture d'Iwate, mais elle produit des puces logiques, et non des puces mémoire. « La production de cette usine a cessé tout de suite après le tremblement de terre et reste encore hors service, » comme l'a indiqué Toshiba. Les usines de Toshiba produisant de la mémoire flash NAND se trouvent à Yokkaichi, à environ 900 kms de l'épicentre du séisme et de la zone touchée par le tsunami.
« Deux usines ont temporairement cessé leurs activités le 11 mars, heure japonaise, mais la production a repris et depuis elles fonctionnent à nouveau normalement, » a précisé Toshiba. « Nous examinons très attentivement les répercussions éventuelles du tremblement de terre sur nos équipements de production, mais jusqu'à présent nous constatons que l'impact a été minime, » a ajouté le constructeur.
[[page]]
Selon le cabinet d'études iSuppli, « le prix de la DRAM, cette mémoire utilisée dans la majorité des processeurs que l'on retrouve dans les ordinateurs de bureau, les ordinateurs portables et les serveurs, a fait un bond de 7 % après le tremblement de terre, avant de se stabiliser. » Elpida Memory, le principal fabricant de DRAM au Japon, a fait savoir de son côté que ses usines de fabrication de DRAM n'avaient pas été affectées par le séisme. Sa principale usine se trouve à Hiroshima, dans le sud-ouest du Japon, soit à plus de 800 kms de la région où s'est produit le tremblement de terre.
Des dommages avec les séismes
Alors que les usines japonaises produisant de la mémoire NAND et DRAM semblent être sorties relativement indemnes du séisme de magnitude 8.9, certains des plus grands fournisseurs mondiaux de matériaux essentiels pour la fabrication des puces, notamment les plaquettes de silicium sur lesquelles sont gravées les processeurs, ont dû arrêter leur production. Sumco Corporation et Shin-Etsu Chemical, qui fournissent la plupart des plaquettes de silicium utilisées dans le monde, ont dû cesser leur production, certaines de leurs usines étant situées à proximité de la région où le tsunami a balayé des villages entiers et endommagé les systèmes de refroidissement de l'une des centrales nucléaires japonaises. Sumco a déclaré que son usine de Yonezawa avait été fermée après le séisme. Selon un premier bilan, aucun employé n'a été blessé, et Sumco espère remettre l'usine en route après avoir fait des vérifications de sécurité. En ce qui concerne Shin-Etsu Chemical, trois de ses usines, respectivement situées à Annaka, Kamisu, et Nishigo Village, ont été arrêtées après le tremblement de terre.
Les équipements de production de deux d'entre elles - Kamisu et Nishigo Village - ont été endommagés, et « à l'heure actuelle, l'entreprise ne sait pas combien de temps il lui faudra pour rétablir ces équipements et ces installations, » a indiqué Shin-Etsu dans un communiqué. Selon le Crédit Suisse, Sumco détient 35 % des parts du marché de la plaquette de silicium 300 millimètres, tandis que Shin-Etsu en détient 30 %. « Au total, les entreprises japonaises fournissent 72 % de l'ensemble des plaquettes de silicium au niveau mondial, » a commenté la banque d'investissement.
Les pannes de courant ralentissent la production de plaques de silicium
Les entreprises s'attendent également à des pannes de courant qui risquent de perturber leur production. Selon Tokyo Electric Power Co., en plus des centrales nucléaires, des centrales thermiques et hydroélectriques ont également été arrêtées après le tremblement de terre. Près d'un tiers de ses installations ont été mises hors circuit par le séisme. Depuis lundi, la compagnie d'électricité, qui s'emploie à rétablir le courant, a procédé à plusieurs coupures d'électricité qui ont affecté la population et les entreprises situées dans le nord du pays.
Certains géants du processeur, comme Taiwan Semiconductor (TSMC) et le sud-coréen Samsung Electronics, ont fait savoir qu'ils ne s'attendaient pas à subir un impact à court terme du au manque d'approvisionnement en plaquettes de silicium. Certes, les fabricants de puces conservent toujours des stocks de plaquettes et peuvent aussi compter sur les distributeurs. Mais si la situation actuelle se poursuit, elles pourraient en ressentir les effets. Selon les estimations faites par le Crédit Suisse, « les fondeurs, les fournisseurs de plaquettes et les distributeurs disposent d'un stock qui leur permettrait de tenir 1 à 2 mois. Mais, si le défaut d'approvisionnement perdure, leur activité serait touchée. »
Pas de virtualisation chez Facebook mais des micro serveurs
Le géant du réseau social s'est prononcé en faveur de solutions Intel pour équiper ses datacenters de micro serveurs. Le fondeur californien va en effet proposer en 2012 quatre processeurs basse consommation pour animer ces micro serveurs. Avec notamment aux extrêmes : un Xeon consommant 45 watts et un inédit Atom, également doté d'instructions 64 bits, affichant une enveloppe thermique de 10 watts. Toutes ces puces auront des fonctionnalités habituellement réservées aux serveurs, tels que la compatibilité avec le jeu d'instruction 64 bits pour adresser beaucoup plus de RAM et la correction d'erreurs mémoire (ECC).
Facebook a déjà testé ces micro serveurs en production et s'intéresse à cette architecture pour équiper massivement ses centres de calcul, a expliqué Gio Coglitore, directeur de laboratoires de Facebook à l'occasion d'une conférence de presse Intel à San Francisco. L'intégration de fonctions réservées aux puces pour serveur est la clef pour utiliser ces micro serveurs dans les entreprises, a-t-il ajouté.
Des solutions déjà proposées sur base Intel
Le micro serveur de petite taille et de faible puissance est un concept qu'Intel a présenté en 2009. Très concentrés - jusqu'à 256 processeurs chez SeaMicro par exemple - les micro serveurs sont plus beaucoup denses que les serveurs en rack ou en lames. Dans un datacenter classique, ils peuvent en outre partager les systèmes de refroidissement et les connexions réseau qui équipent déjà les armoires traditionnelles, a souligné Boyd Davis, vice-président marketing en charge du groupe datacenter chez Intel.
Des constructeurs tels que Dell, Seamicro et Tyan ont déjà adopté cette architecture, particulièrement populaire chez les grands fournisseurs de services cloud computing et les petits hébergeurs de services web, selon Intel. La firme de Santa Clara s'attend à ce que les micro serveurs représentent à peu près 10% du marché des processeurs pour serveurs.
[[page]]
Les serveurs web front-end, énormément utilisés par Facebook, sont particulièrement bien indiqués pour passer sur une architecture de type micro serveurs, selon Gio Coglitore. «Après l'annonce d'Intel, c'est juste sur le point d'arriver », a-t-il dit. Facebook va probablement commencer à installer des microserveurs sur une grande échelle en fin d'année ou au début de la prochaine.
La plate-forme sociale utilise plusieurs types de serveurs dans les différentes parties de ses datacenter, mais l'aversion de la société à l'égard de la virtualisation s'étend à toutes ses infrastructures, a indiqué Gio Coglitore. «Lors de nos différents tests, nous avons validé que notre infrastructure informatique nous permet de réaliser des économies et nous apporte la souplesse nécessaire pour accompagner notre croissance. Si la virtualisation était la bonne approche, nous serions passés à un environnement virtualisé. »
Pas de recours à la virtualisation
Facebook veut être en mesure d'équilibrer ses charges de travail sur plusieurs systèmes et perdre un serveur sans dégrader l'expérience utilisateur. «Lorsque vous commencez à virtualiser, l'importance de ce serveur particulier devient beaucoup plus importante, et quand vous avez concentré une grande charge de travail, cela devient encore plus difficile de s'en passer » assure à contre-courant Gio Coglitore. Ce dernier préfère utiliser des machines aussi anonymes et interchangeables qu'un « fantassin ». « La virtualisation rend plus difficile la gestion des ressources matérielles de cette façon, précise le responsable informatique de Facebook. L'ajout d'une couche logicielle de type hyperviseur tend également à verrouiller l'infrastructure, a-t-il précisé.
En outre, bien que Facebook puisse avantageusement utiliser des serveurs plus puissants sur ses plates-formes pour certains besoins, la firme a choisi de se tourner vers des machines d'entrée de gamme pour des questions budgétaires. Facebook préfère en effet changer de serveurs tous les deux à trois ans, pour suivre les évolutions processeurs d'Intel et des autres fondeurs, indique Gio Coglitore.
Pour tester les plates-formes micro serveurs, Intel expédie actuellement des puces Xeon 45 watts (E3 1260L) et 20 watts (E3-1220L), ainsi qu'un processeur 15 watts reposant sur l'architecture Sandy Bridge. La solution Atom 10 watts, attendue l'année prochaine, n'a pas encore reçu d'appellation commerciale selon Boyd Davis d'Intel.
Google Apps assouplit ses mises à jour pour les administrateurs
Jusqu'à présent, Google apportait, de manière transparente et continue, des améliorations à sa suite d'Apps dès qu'elles avaient été testées et jugées bonne pour le service, à la façon dont l'entreprise le fait pour ses applications grand public et ses sites. Cependant, certains administrateurs d'Apps, en particulier ceux des grandes entreprises, ont souhaité obtenir à la fois, plus de contrôle sur les changements, mais aussi bénéficier d'un temps d'adaptation avant de rendre les mises à jour opérationnelles dans leurs espaces de travail. Ainsi, les administrateurs d'Apps pourront désormais opter pour des mises à jours programmées dites « Scheduled Release », afin d'appliquer les améliorations selon un calendrier hebdomadaire ou bi-hebdomadaire, en bénéficiant d'un délai d'une ou deux semaines avant une mise en ligne.
« Ce processus de mise à jour des Google Apps répond aux besoins de nos clients professionnels, » a déclaré Rajen Sheth, Group Product Manager, Google Enterprise. En même temps que le lancement de l'option de mise à jour programmée, Google inaugure un portail consacré aux updates des Apps et à leurs améliorations, qui contribuera aussi à mieux informer les administrateurs. Ceux-ci pourront y trouver des informations sur les Apps, des ressources, et en particulier du matériel de formation à l'intention de leurs utilisateurs finaux.
Une demande forte des administrateurs
Les Apps, cet ensemble d'outils de collaboration et de communication entièrement hébergé sur le web, comprend des fonctions de messagerie, d'agenda, des applications de productivité bureautique, une messagerie instantanée, des fonctions intranet et d'autres applications professionnelles. En tant que tel, les administrateurs d'Apps ont peu ou pas de contrôle sur le logiciel, en particulier en ce qui concerne sa maintenance et ses améliorations, un processus entièrement géré par Google. En 2010 par exemple, l'éditeur a effectué 130 mises à jour sur les Google Apps. Certes, l'un des avantages du cloud computing et de ces suites hébergées comme les Apps est de laisser aux fournisseurs la responsabilité de la maintenance, du déploiement des correctifs et des mises à jour. Mais il a aussi pour inconvénient de retirer aux services informatiques le contrôle sur les cycles de mise à jour des logiciels.
« Certains administrateurs d'Apps, en particulier ceux des grandes et moyennes entreprises dont le service informatique est chargé d'apporter un support technique à ses utilisateurs finaux, ont demandé à Google plus de visibilité sur les sorties. Car des changements, même minimes, peuvent avoir des conséquences dramatiques au moment de l'utilisation, » a déclaré le Group Manager. Par exemple, un changement d'interface peut perturber grandement les utilisateurs finaux et provoquer une série d'appels à l'assistance technique.
[[page]]
Si le personnel chargé du support n'a pas pu tester lui-même les nouvelles fonctionnalités, il peut se trouver très embarrassé pour répondre immédiatement aux questions qu'on lui pose. « Ils veulent être informés de la date à laquelle auront lieu les mises à jour, ce qui change, disposer de plus d'informations sur les nouveautés, pour être mieux préparés et savoir répondre à leurs utilisateurs », a déclaré Rajen Sheth. « C'est pourquoi nous voulons offrir plus de visibilité à ce processus, » a t-il ajouté.
Des programmations sur les éléments visibles
Pour Rebecca Wettemann, analyste dans le domaine de l'industrie, cette nouvelle manière d'opérer est une bonne chose. « Cela montre que Google travaille à rendre ses applications plus adaptées au fonctionnement des grandes entreprises, » a-t-elle déclaré. « De plus, les entreprises souhaitent souvent accompagner les mises à jour de sessions de formation, les entourer d'autres initiatives ou faire tester les nouvelles fonctionnalités par un groupe pilote avant de déployer l'application à l'ensemble de ses salariés, » ajoute-t-elle. « Cela devrait aider les responsables informatiques à tirer profit des innovations de Google selon un calendrier propre, pour limiter les perturbations et faire en sorte que les utilisateurs en tire de meilleurs bénéfices,» a encore déclaré l'analyste. « Pour ce qui est de la mise en oeuvre, nous serons attentifs aux retours faits par les administrateurs. Nous pensons aussi que Google va poursuivre ses efforts pour montrer que l'entreprise investit dans des applications de classe entreprise. »
Par défaut, les clients des Apps seront abonnés à l'option de « Scheduled Release », sauf pour ceux qui avaient déjà choisi de disposer des fonctionnalités en « pre-release. » Ces clients resteront dans le système des mises à jour rapides, c'est à dire que les changements leurs seront appliqués dès qu'ils seront prêts, et cela sans préavis. Même s'ils n'étaient pas abonnés au système de pre-release, les administrateurs d'Apps pourront passer de l'option « mise à jour programmée » à l'option « mise à jour rapide » s'ils le souhaitent. L'option de mise à jour à date différée ne concernent cependant que des éléments visibles des utilisateurs finaux, comme la personnalisation de l'interface ou d'autres fonctionnalités, mais pas celles faites en arrière-plan, notamment les correctifs de sécurité ou de bogues et autres, lesquelles seront toujours déployées à l'ensemble du service d'applications hébergées de Google.
Eurocloud délivre ses recommandations et interpelle Eric Besson
Ce 15 mars, Pierre-José Billotte, le président de la manifestation a donc remis au Ministre de l'industrie et de l'économie numérique 17 recommandations en rappelant qu'aux Etats-Unis, l'Administration Obama a lancé le plan « cloud-first », les investissements publics devant privilégier le modèle cloud plutôt que le modèle traditionnel.
Ces 17 propositions seront déclinées en trois axes : l'offre, la demande et la distribution. Concernant l'offre, Eurocloud souhaite par exemple la création d'un Fonds d'investissements publics, de 500 millions d'euros, pour soutenir, en fonds propres, des entreprises qui innovent dans les services cloud, même si leur chiffre d'affaires est des plus réduit. L'idée est de faire porter l'effort public vers les services et pas seulement vers les infrastructures. Dans la foulée, cet effort public doit encourager ces entreprises à aller vers l'international.
Mise en place d'un label européen de sécurité du cloud
Côté demande, la manifestation souhaite que la commande publique, comme aux Etats-Unis, soit orientée vers le cloud. La DICSI (Direction interministérielle des systèmes d'information, qui vient de se mettre en place) pourrait s'en charger. Eurocloud souhaite également, cette fois à l'échelle européenne, la publication d'un label en matière de sécurité du cloud (Neelie Kroes, commissaire européen était intervenu sur ce thème). Enfin, toujours en matière de demande, il souhaite la transparence en matière de localisation des données.
Plus original, le groupe envisage la création d'un site où seraient répertoriées toutes les condamnations émises par des tribunaux français en matière de cloud. En clair, un tel Tribunal condamne une entreprises pour des défaillances, mais cette entreprises étant située à l'autre bout du monde (ou même de l'Europe), la condamnation n'est pas exécutée. En publiant le nom du condamné, au moins les clients auraient-ils la possibilité d'accéder à une « liste noire » internationale.
Un label sécurité pour le cloud public
Eurocloud ne peut qu'être très international. L'Association compte maintenant 25 adhérents, y compris dans les pays d'Europe de l'Est (Pologne, Ukraine, Hongrie). Le label sécurité qu'elle souhaite promouvoir a été élaboré par la branche allemande. La thématique distribution, si chère à Pierre-José Billotte, est également internationale avec la mise en route de politiques cloud chez les grossistes internationaux (spécialisés comme Arrow ou généralistes comme Ingram), l'émergence d'intégrateurs de taille mondiale (comme Revevol), ou d'intégrateurs qui imposent à leurs ingénieurs d'être trilingue (comme gPartner). Eurocloud tiendra sa prochaine réunion européenne les 27 28 juin au Luxembourg.
Obama veut favoriser le cloud dans l'administration
Depuis décembre 2010, la General services administration (GSA, agence qui fournit les ministères en équipements en tout genre et les aide à réduire leurs dépenses) a passé sa messagerie sur Gmail. La GSA explique que ses serveurs ayant au moins six ans d'âge, il devenait difficile de les prolonger. Le passage au cloud devenait donc une solution appropriée. 17 000 comptes mails vont migrer. C'est un budget de 6,7 millions de dollars, attribué à Unisys, qui collaborera avec Google et Tempus.
Diminuer les dépenses et la consommation énergétique
Cette politique en faveur du cloud computing a été annoncée en septembre 2009, par le DSI fédéral Vivek Kundra. Elle a mis un an à commencer à entrer dans les faits. L'Administration Obama estime que le cloud computing permet de partager des infrastructures, des technologies (applications et services basés sur le web) et de diminuer les dépenses et la consommation énergétique.
Selon Vivek Kundra, le gouvernement fédéral a un budget informatique de 76 milliards de dollars (chiffre 2009), dont plus de 19 milliards consacrés aux seules infrastructures. Il construisait data center après datacenter (il en dénombre 2 100 !), mais veut réduire ces dépenses d'infrastructure. Il se donne dix ans pour cela. Vivek Kundra et ses équipes incitent également les ministères à passer au cloud, cette fois côté services au public
HP finalise l'intégration de 3Par dans ses produits
Hewlett-Packard a combiné les plateformes Utility Storage de 3Par avec CloudSystem d'HP. Selon la société, cette solution donnera aux entreprises un système de stockage « idéal » pour tous les types de clouds - publics, privés et hybrides. Il centralise également la gestion des serveurs, du stockage et du réseau. David Chalmers, directeur technique de HP Enterprise Storage and Servers pour le Royaume-Uni et l'Irlande, a déclaré que les raisons de choisir ces technologies évolutives sont le thin provisioning (allocation dynamique de ressources) et les capacités multi-tenant, ce qui signifie que différentes personnes peuvent y accéder à tout moment. « Le thin provisioning signifie que vous pouvez augmenter la capacité de stockage dont vous avez besoin, » explique le responsable.
En outre, HP a intégré la technologie 3Par via une passerelle, baptisée HP Systems X9300, qui est basée sur la technologie NAS IBRIX. En plus d'autoriser le multi-locatif, David Chalmers a déclaré que la technologie 3Par donnera aux utilisateurs de cette gateway une gestion plus efficace de leurs données, au moment où ces dernières, structurées ou non, prennent de l'ampleur. « Il peut automatiquement transférer les données et les classer en fonction de leur pertinence ou de leur utilisation pour ne pas occuper des capacités de stockages trop coûteuses (comme le SSD) » précise-t-il. Le HP Systems X9300 sera évolutif pour gérer jusqu'à 16 Po.
En complément, HP a présenté le système de stockage HP P4800 G2 SAN. Intégré au châssis HP BladeSystem, il s'appuie sur le logiciel SAN/IQ 9.0 avec un support amélioré des API VMware pour l'intégration de baies de stockage. Ce support accélère certaines fonctions de VMware telles que le clonage, tout en réduisant la charge des serveurs VMware ESX. Ces améliorations permettent ainsi aux clients d'augmenter la densité de leurs machines virtuelles par unité de stockage.
Sorti de l'ombre Hurd, HP se lance dans le cloud public
Depuis son arrivée à la tête de Hewlett-Packard, Leo Apotheker, CEO en titre, vivait dans l'ombre de Mark Hurd, le précédent CEO désormais chez Oracle. En dévoilant la stratégie du groupe informatique pour les prochaines années avec notamment le lancement d'un cloud public concurrent des plates-formes d'Amazon et de Google, Leo Apotheker sort enfin de l'ombre de son prédécesseur. En plus d'une offre Infrastructure-as-a-Service (IaaS), HP proposera également une place de marché applicative pour les consommateurs, les petites et moyennes entreprises, et les grands comptes, a précisé Leo Apotheker.
Une offre multi tiers
Il y aura quelque chose pour tous les clients de HP sur le marché, a-t-il ajouté. « Nous allons fournir un marché ouvert unique qui proposera des services pour les consommateurs, les entreprises et les développeurs », a-t-il expliqué lors d'une réunion organisée pour la presse et les analystes à San Francisco
le lundi 14 mars. La place de marché comprendra une boutique d'applications, ainsi que des outils pour les développeurs, des services et du support pour les entreprises a-t-il dit.
HP ne précise pas quand cette plate de marché et ces services en ligne seront disponibles, mais Leo Apotheker indique que les services seront ouverts, supporteront de nombreux langages de développement, et pourront être utilisés par n'importe quel éditeur de programmes. « Nous ne vérifierons que la sécurité et l'interopérabilité des logiciels » a-t-il ajouté.
Un savoir faire à mettre en oeuvre
La firme de Palo Alto possède tout le savoir-faire pour construire de telles offres. Elle est très bien positionnée auprès des consommateurs, maitrise toutes les briques infrastructures ainsi que la technologie middleware nécessaire pour faire fonctionner ensemble les applications. HP ambitionne clairement de devenir aussi grand que certains fournisseurs bien connus de services cloud computing (Amazon, Google ou encore Microsoft).
« Si vous voulez être dans le business cloud, il faut le faire à grande échelle», a souligné Leo Apotheker. « Vous devez être en mesure de servir les clients partout dans le monde. » Mais il est difficile de savoir si HP réussira à attirer les développeurs de logiciels sur sa plate-forme et séduira les consommateurs et les développeurs de la même manière que des concurrents tels que Google et Amazon.
[[page]]
Les investisseurs avaient besoin d'être rassurés sur l'avenir de HP depuis que Leo Apotheker a succédé à Mark Hurd, il y a déjà cinq mois. L'action de HP n'a pas bien réagi au départ de Mark Hurd avec une sous-performance d'environ 17% à l'index Standard & Poor's 500. Toujours aussi confiants, les analystes financiers se demandaient même si Leo Apotheker était bien l'homme de la situation pour relancer HP.
Peu de vraies innovations grand public
Alors que les entreprises IT telles que Google et Apple ont vu leurs profits augmentés en flèche suite à leurs annonces sur le marché grand public, HP court toujours après de réelles innovations à succès. Le mois dernier, la firme de Palo Alto a bien annoncé le TouchPad - une tablette tactile qui arrive sur un marché aujourd'hui dominé par l'iPad d'Apple. Reposant sur le système d'exploitation webOS que HP a récupéré suite au rachat de Palm en 2009, cette ardoise électronique est attendue en juin prochain aux États-Unis.
< Les 10 documents précédents | Les 10 documents suivants > |