Flux RSS

Infrastructure serveur

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

2924 documents trouvés, affichage des résultats 51 à 60.

< Les 10 documents précédentsLes 10 documents suivants >


(20/02/2012 11:58:09)

Intel veut intégrer le WiFi dans ses puces

Intel devrait détailler cette semaine une partie de son travail portant sur le renforcement des capacités sans fil de ses puces, qui pourraient rendre les PC et les terminaux mobiles plus petits moins chers et plus efficients en terme de consommation. Le fondeur donnera en effet plus de détails sur une puce Atom double coeur avec WiFi intégré connue sous le nom de code Rosepoint, à l'occasion de la manifestation International Solid State Circuits Conference qui se tiendra à San Francisco du 19 au 23 février.

La puce est encore au stade du développement, mais l'intégration d'un émetteur-récepteur sans fil dans le silicium des processeurs Atom pourrait améliorer l'autonomie des PC portables qui pourrait travailler encore plus longtemps avec le WiFi activé, a déclaré Justin Rattner, CTO d'Intel. Les processeurs avec WiFi intégré ne seront toutefois pas disponibles avant le milieu de cette décennie,  a précisé Intel.

WiFi, 3G et 4G au coeur des puces mobiles


La société de Santa Clara a également déclaré qu'elle souhaite intégrer les interfaces radios WiFi, 3G et 4G sur les puces Atom à venir, qui seront utilisées dans les netbooks, les smartphones et les tablettes. Rappelons que l'année dernière, le fabricant de puces a finalisé l'acquisition de la division sans fil US d'Infineon Technologies pour un montant de 1,4 milliard de dollars. Une opération qui a été considérée par beaucoup comme un moyen, pour Intel, de  développer sur les marchés des smartphones et tablettes

Le plus grand rival d'Intel sur le marché mobile est aujourd'hui ARM, dont les processeurs équipent la  plupart des terminaux mobiles. Les premiers smartphones Intel Inside sont attendus un plus tard dans l'année chez Motorola et Lenovo, et les puces Intel Clover Trail vont  équiper les premières tablettes Windows 8 à l'automne.

Les concurrents ARM déjà sur les rangs


De fabricants de puces concurrents, tels que Qualcomm avec son processeur S4, basé sur l'architecture ARM et intégrant WiFi et 3G/4G,  livrent déjà des échantillons de leurs produits. En mesure d'exécuter Windows 8, les puces S4 sont également destinées aux marchés des smartphones, des tablettes et des PC.

L'intégration d'un émetteur-récepteur WiFi supprime l'ajout d'une puce de communication supplémentaire dans un appareil, a expliqué Dean McCarron, analyste principal chez Mercury Research. L'intégration permet aux appareils d'être plus petits, et la suppression d'une puce supplémentaire réduit le coût de fabrication, a poursuivi l'analyste. Cela conduit à une baisse des prix et à des économies pour les acheteurs de smartphones, de tablettes et même d'ultrabooks.

L'autonomie de la batterie d'un terminal mobile ou d'un PC dépendra toutefois de la quantité de données transmise par ondes radio, a déclaré M. McCarron. La consommation d'énergie augmente à mesure que davantage de données sont transmises, mais l'intégration d'un émetteur-récepteur WiFi sera une option plus efficace en terme d'efficience énergétique que la présence d'une puce WiFi séparée.

(...)

(20/02/2012 10:30:52)

Le supercalculateur Bull Curie désormais opérationnel au GENCI

Le GENCI (Grand Equipement National de Calcul Intensif) est une société civile détenue à 49 % par l'Etat, 20 % par le CEA, 20 % par le CNRS, 10 % par les Universités et 1 % par l'INRIA. Il vient de démarrer le supercalculateur Curie, conçu par le Français Bull, qui accumule les records : 2 Pflop/s grâce à 92000 coeurs, 15 Po de stockage avec une vitesse de transfert de 250 Go/s... Le supercalculateur est doté de processeurs Intel Xeon Sandy Bridge et du logiciel de gestion de simulation QMC=Chem.

« Avec une architecture équilibrée, unique en Europe, qui combine une puissance de calcul élevée et une capacité très grande de traitement des données, Curie va donner les moyens aux chercheurs français et européens de relever les plus grands défis scientifiques dans des domaines tels que la climatologie, les sciences de la vie ou encore l'astrophysique », souligne Catherine Rivière, PDG du GENCI. Dans les travaux qui vont être prochainement traités sur ce supercalculateur, on trouve de nombreuses disciplines : simulation des interactions chimiques à l'oeuvre dans la maladie d'Alzheimer, analyse de l'effet de la « matière noire » du Big Bang à nos jours, travaux du CEA dans la fusion nucléaire en lien avec ITER, modélisations climatologiques...

Curie est hébergé au Très Grand Centre de Calcul (TGCC) du CEA à Bruyères-le-Châtel. Il a été construit en deux phases entre fin 2010 et fin 2011. Son ouverture aux chercheurs se fera le 1er mars 2012 après une période de tests. Sa création, qui s'inscrit dans un plan d'investissement de 100 millions d'euros sur cinq ans, constitue la contribution française au programme européen PRACE (Partnership for Advanced Computing in Europe) qui regroupe 24 pays. Ce programme va permettre de créer un réseau de quatre supercalculateurs pétaflopiques européens.

(...)

(16/02/2012 16:53:11)

La NASA éteint son dernier mainframe IBM

C'est une page qui se tourne. L'ère du mainframe à la NASA se termine, c'est le titre du message publié par la DSI de l'agence spatiale américaine sur son blog. Linda Cuerton explique que le dernier mainframe, un Z9 d'IBM, encore en activité au Marshall Space Flight Center, sera éteint à la fin du mois. Elle a vanté les bénéfices de ces systèmes, fiables, puissants, hautement disponibles et très utiles pour gérer de grands volumes de transactions.

Elle considère que les hyperviseurs, les clients légers actuels, découlent de la génération mainframe. Elle se souvient d'avoir démarré à la NASA avec un IBM 360-95 et d'avoir étudié le langage assembleur de ces systèmes. Mais la DSI estime que « toutes les choses doivent changer » et que si la NASA éteint son dernier mainframe, ces systèmes ont encore de l'avenir dans d'autres organisations.

(...)

(15/02/2012 17:06:27)

Avec EMC et VMware, Atos crée Canopy une société dédiée au cloud

Thierry Breton, PDG d'Atos et Joe Tucci, PDG d'EMC ont tenu conférence commune pour présenter une alliance dans le domaine du cloud. La SSII a annoncé la création d'une société baptisée Canopy pour proposer des offres et des services clouds. Pour Thierry Breton, « Canopy va adresser 4 axes, une offre de consulting, la création d'un store pour les applications d'entreprise, une offre de PaaS pour les tests et les développements et enfin une solution de cloud privé ». Sur les deux derniers points, Canopy s'appuiera sur la solution Vblock de l'alliance VCE (VMware, Cisco, EMC).

En ce qui concerne la boutique d'applications d'entreprises, elle sera disponible à partir du mois d'avril et sera étoffée jusqu'à la fin de l'année. Le magasin applicatif sera segmenté verticalement, secteur public, santé, finances, mais aussi horizontalement, ERP, CRM, big data analytics. Thierry Breton ouvre donc la porte à tous les éditeurs qui souhaitent être référencés. L'ensemble des briques formant Canopy devront être finalisées avant la fin de l'année.

Une réponse concurrente à Andromède et au projet cloud de Dassault Systèmes

Atos sera l'actionnaire majoritaire, mais EMC et VMware devraient participer financièrement à la création de la nouvelle société. Joe Tucci n'a pas voulu donner les détails de sa contribution. Quelques dizaines de millions d'euros sont prévus au démarrage de Canopy, dont le siège sera basé en Europe et elle comprendra dans un premier temps une centaine de consultants et d'ingénieurs. Le dirigeant de Canopy sera nommé par Atos.

Cette annonce intervient en plein débat sur la création d'un cloud souverain français. Le projet Andromède a perdu un de ses membres, Dassault Systèmes, qui planche sur un projet concurrent avec Vivendi/SFR. Atos, un moment pressenti pour rejoindre le projet Andromède, a finalement décidé de prendre une autre voie. A la question légitime de savoir si la présence de deux compagnies américaines dans l'accord ne risquait pas de poser des problèmes, Thierry Breton a indiqué que « Canopy utilisera les différents datacenters d'Atos à travers le monde et elle respectera les réglementations sur la protection et la localisation des données ».

(...)

(15/02/2012 15:42:40)

Avec Crystal Forest, Intel améliore la performance réseau des datacenters

Intel a présenté un chipset baptisé Crystal Forest pour améliorer le traitement des données au sein des datacenters. « Crystal Forest est composé d'un hardware spécifique, lui-même doté de fonctionnalités logicielles qui pourraient accélérer le traitement des données sur le réseau, » a déclaré Steve Price, directeur du marketing de la division Communications Infrastructure d'Intel. Ce chipset pourrait permettre une agrégation plus rapide des données circulant entre les serveurs dans les centres de calcul sans nuire aux performances ou à la sécurité.

Avec Crystal Forest, Intel espère s'introduire sur le marché des processeurs dédiés aux réseaux et rivaliser avec des entreprises comme Cavium, AppliedMicro et Tilera. Intel avait déjà vendu des processeurs réseaux à base d'ARM par le biais de sa division communications, cédée à Marvell en 2006 pour 600 millions de dollars. « Les centres de calcul hébergeant des services cloud traitent un grand nombre de transactions et les processeurs réseaux peuvent permettre de rassembler les données plus rapidement et donc de retourner plus vite des résultats aux utilisateurs, » a déclaré Nathan Brookwood, analyste principal chez Insight 64. « Le fondeur essaye de palier aux lacunes de la pile technologique des datacenters, et ce chipset pourrait être l'occasion pour Intel de coupler l'élément réseau avec ses microprocesseurs et ses composants, » a ajouté l'analyste.

« Crystal Forest pourrait aussi être une alternative au processeur en silicium classique utilisé actuellement dans les serveurs pour gérer des tâches réseaux complexes, » a ajouté Nathan Brookwood. « Intel cherche toujours à intégrer plus de composants au niveau de la puce équipant les serveurs et Crystal Forest pourrait s'avérer être un produit à forte valeur ajoutée pour l'entreprise, » a encore déclaré l'analyste.

Les détails de Crystal Forest

« Le chipset d'Intel peut gérer jusqu'à 160 millions de paquets par seconde sur une plate-forme serveur bi-processeur, » a précisé Steve Price. Avec Crystal Forest, l'entreprise américaine vise notamment les réseaux 3G et 4G et les vendeurs de solutions de sécurité. « Comparé à des processeurs réseaux dédiés, Crystal Forest est très concurrentiel, » a estimé le directeur marketing.

La plateforme inclut un processeur basé sur la microarchitecture Sandy Bridge, un système I/O, une interface Ethernet et un hardware appelé QuickAssist qui accélère le chiffrement, le traitement et l'analyse approfondie des paquets. « QuickAssist est dérivé d'une technologie logicielle qui offre des fonctionnalités similaires, » a précisé Steve Price. Intel a ajouté aussi un ensemble de bibliothèques logicielles qui tirent profit des jeux d'instruction Intel conçus pour accélérer le traitement du flux des données sur le réseau. Crystal Forest succède à la puce Xeon Jasper Forest. Celle-ci intégrait un hub I/O et a été adoptée dans des systèmes de stockage et des appliances serveurs. En plus d'être un processeur réseau, le chipset peut trouver des applications plus générales, dans le domaine du stockage et de la sécurité. Elle sera disponible d'ici la fin de l'année.

Au mois de juillet dernier, Intel a conclu un accord pour racheter l'entreprise réseaux Fulcrum Microsystems spécialisée dans les technologies de processeurs optimisés pour les réseaux 10 et 40 Gbits Ethernet. « Intel prévoit d'intégrer les commutateurs Fulcrum avec les chipsets Crystal Forest au niveau du rack, » a annoncé Steve Price. « Des entreprises comme Cisco et Juniper proposent des puces personnalisées conçues pour traiter des débits de données extrêmement élevés, » a déclaré l'analyste d'Insight 64. Selon Nathan Brookwook, « Intel serait gagnant si l'une de ces grosses entreprises réseaux achetait sa technologie. » Mais, toujours selon l'analyste, « par rapport à l'activité principale du fondeur, celle concernant les processeurs réseaux restera marginale. »

(...)

(15/02/2012 09:29:17)

Forces et faiblesses des PME face au cloud selon Acronis

Principale conclusion de l'étude, la virtualisation des serveurs se répand plus rapidement dans les PME que dans les grands comptes. Le Gartner parlait de 14% de hausse de cette virtualisation en 2012, Acronis et Ponemon parlent de 21% pour les PME. Mais, cette virtualisation est plus faible qu'espérée selon l'étude. 33% des parcs devaient être virtualisés en 2011, c'est tout juste 24% selon Ponemon, ce sera 29% en 2012.

Cette virtualisation des serveurs présente donc des possibilités de croissance importantes. D'ailleurs, 38% des entreprises interrogées devraient faire cette transformation en 2012. Elles le font selon trois critères principaux : améliorer leur efficacité pour 24% d'entre elles, rendre plus flexibles et plus rapides les déploiements dans 20% des cas, réduire les coûts à 18%.

Cette progression de la virtualisation des serveurs ne correspond pas automatiquement à une meilleure protection des données, c'est l'autre grande conclusion. Le tiers des entreprises interrogées n'effectuent pas de sauvegarde de leurs serveurs virtuels aussi fréquemment que de leurs serveurs physiques. Moins d'un tiers, 27%, effectuent une sauvegarde quotidienne, 24% hebdomadaire, 26% mensuelle. Dans 13% des cas, cette sauvegarde est qualifiée d'irrégulière. La France fait partie des mauvais élèves.

Une entreprise sur quatre va migrer

On retrouve ce type de résultats contradictoires tout au long de l'étude. Par exemple, sur le cloud en général. 83% des responsables interrogés expliquent avoir déjà mis en oeuvre une infrastructure basée sur une forme de cloud, en croissance de 13% par rapport à l'an passé. Toutefois, le cloud ne représente que 19% de leur infrastructure. En 2010, remarque l'étude, 30% des entreprises devaient avoir une infra en cloud dans les douze mois suivants, on en est loin. Une entreprise sur quatre, 26%, envisage d'y passer  en 2012. Le retard entre la prévision et la réalité sera-t-il comblé cette année ?

Le chemin est aride. Plusieurs raisons l'expliquent. Les entreprises  éprouvent un manque de confiance envers les fournisseurs du cloud, elles sont 25% en Suède, 23% en Italie et en Norvège, 19% en France, et expliquent ainsi leur absence de migration.

L'étude se concentre également à plusieurs reprises sur les solutions de sauvegarde et de PRA. Une PME produit chaque année 40 To de données nouvelles. Comment maintenir l'accessibilité à ces données, leur sécurité, leur protection ? L'étude a posé 11 questions aux entreprises sur leurs capacités et leurs pratiques en matière de sauvegarde et de reprise d'activité. Un tiers des PME sont encore sous équipées en matière de sauvegarde et de PRA. Et, chez celles qui sont équipées, un tiers estiment qu'elles subiront une interruption d'activité en cas de problème.

Les données virtuelles en danger

Trois domaines d'amélioration ressortent plus particulièrement : l'insuffisance de la documentation sur les procédures et politiques de sauvegarde, la fréquence des contrôles et des procédures en place, le manque de personnel qualifié (un problème récurrent).  Plus grave, le soutien des dirigeants d'entreprise s'effrite, 47% des responsables informatiques interrogés en sont certains. Et pour cause : les budgets n'évoluent pas d'une année sur l'autre. 67% des personnes interrogées ne dépensent que 10% de leur budget sur ces opérations de sauvegarde et de PRA.

La France note l'étude semble toutefois retrouver de la confiance dans ses politiques de sauvegarde, surtout sur deux points : la taille et l'efficacité des équipes dédies, la documentation relative aux procédures de sauvegarde et aux PRA.

(*) Etude nommée Global Disaster Recovery », menée auprès de 6 000 entreprises (deux fois plus que l'an passé) de  13 pays : Allemagne, Arabie Saoudite, Australie, Brésil, Chine, Etats-Unis, France, Hong-Kong, Inde, Italie, Japon, Norvège, Pays-B  as, Royaume-Uni, Russie, Singapour, Suède, Suisse.

(...)

(14/02/2012 16:05:43)

Citrix optimise CloudStack pour XenServer 6

Le spécialiste des solutions de virtualisation a lancé la version 3 de CloudStack. Il s'agit d'une plateforme Open Source de conception, gestion et de mise à disposition de services clouds que Citrix a acquis lors du rachat de Cloud.com. Elle se définit comme multi-hyperviseur (KVM, VMware, Oracle VM) , mais cette version a été optimisée pour XenServer 6. CloudStack 3 assure aussi une meilleure intégration des appliances de NetScaler pour la partie réseau, mais également avec les équipements F5, Cisco et Juniper, indique Citrix.

Un catalogue de services réseaux intégrés

CloudStack donne aux utilisateurs les moyens de créer des services réseaux dans différents environnements clouds, avec une allocation dynamique des ressources réseaux sans avoir besoin de paramétrer les équipements. Ainsi, la plate-forme pourra, par exemple, changer les règles d'équilibrage de charge ou lancer de nouvelles instances de machines virtuelles dans un cloud multitenant. CloudStack annonce qu'il a fédéré une cinquantaine de fournisseurs sur la création d'un catalogue de services réseaux intégrés. CloudStack prend en charge aussi la technologie de stockage d'objets, Swift, d'OpenStack pour gérer les données statiques qui sont stockées sur le long terme.

Enfin, l'interface utilisateur a été revue pour la rendre plus accessible aux utilisateurs moins aguerris sur le plan technique.

(...)

(14/02/2012 10:34:38)

Les prochaines offres clouds de Nerim ouvertes aux partenaires

Les ventes en indirect représentent actuellement un peu plus de 50% des ventes de l'opérateur télécoms Nerim. Elles concernent plusieurs offres : l'ensemble des connexions Internet, les offres d'hébergement, la ToIP en mode courtage, une partie des offres de sécurité réseau. Ne sont pas concernées, les offres en téléphonie. En revanche, l'opérateur qui prépare des offres de cloud computing va les rendre accessibles à ses partenaires.

Ceux-ci sont au nombre de 350 actifs, donc ayant réalisé au moins une vente dans le mois. Nerim en recrute de nouveaux pour compléter sa couverture régionale, essentiellement dans le grand Ouest, le Nord et l'Est. « On veut des partenaires qui souhaitent travailler dans la durée, nous les formons, via Nerim Université » note Cyril de Metz, directeur général, « nous leur proposons les services d'un opérateur reconnu pour sa qualité de service et ses compétences en sécurité ».

L'opérateur prépare ses offres de cloud computing, avec des capacités d'hébergement dans deux datacenters : Equinix à Saint Denis et NetCenter à Courbevoie ; deux centres redondants, reliés en fibre noire par Nerim.  L'opérateur va proposer en vente directe ou en vente indirecte des capacités d'hébergement et des formules de datacenter virtuel. « Les partenaires pourront présenter des services d'infrastructure ou bien intégrer leurs différents soft et se présenter des offres en SaaS », commente Cyril de Metz.

Par ailleurs, Nerim a réalisé un chiffre d'affaires (CA) de 24 millions d'euros (ME) en 2011.

(...)

(14/02/2012 10:04:27)

Avec ses serveurs Proliant Gen8, HP pousse l'automatisation

Pour la plénière de sa Global Partner Conference 2012 à Las Vegas, HP a fait dans le local avec un petit show sur scène. Les choses sérieuses n'ont toutefois pas tardé à commencer avec l'arrivée sur scène de Dave Donatelli, patron de l'activité infrastructures (ESSN) chez HP. Après des annonces sur le business avec les partenaires, nous reviendrons sur le sujet dans un article ultérieur, le dirigeant a présenté les serveurs Proliant Gen8 et dressé la feuille de route de l'HP post Apotheker. A savoir une pyramide qui comprend à la base l'infrastructure ("The core"), puis à la strate supérieure la partie logicielle ("Expand the core"), ensuite les services ("Add value to the core") et enfin les solutions ("Make it work"). « C'est le pouvoir de la convergence. Notre but est très ambitieux, il s'agit de transformer l'industrie avec nos solutions serveurs, stockage et réseau pour aller vers le cloud », a indiqué Dave Donatelli. Et cette stratégie porte le nom de projet Voyager.


Dave Donatelli, patron de l'activité infrastructures (ESSN) chez HP

Après le projet Moonshot, dévoilé le 11 octobre 2011, qui visait à améliorer l'efficience énergétique des datacenters avec des solutions innovantes comme des prototypes de serveurs basés sur les plates-formes ARM et Intel Atom, le projet Odyssey, lancé le 22 novembre 2011, qui consistait à gérer comme un seul système des plates-formes animées par Linux, Windows et Unix pour des applications critiques, HP annonce donc Voyager pour redéfinir les attentes et les coûts des plates-formes serveurs. Si le projet Voyager ne concerne aujourd'hui que la plate-forme x86, Dave Donatelli a expliqué lors de la conférence de presse qui a suivi la plénière que le projet sera étendu à Itanium en novembre prochain. John Gromala, responsable marketing chez HP nous a ensuite expliqué que beaucoup d'efforts ont été réalisés pour mener à bout le projet Voyager et qu'il pouvait s'étendre à d'autres infrastructures.

Des serveurs mais pas de détails sur les processeurs

Pour revenir au sujet phare de la journée, le lancement des Proliant Gen8, HP a présenté certaines des innovations de cette plate-forme qui a demandé 2 ans de développement et 300 millions de dollars d'investissement. 900 brevets ont d'ailleurs été déposés pour couvrir ces innovations, notamment un Smart Socket codéveloppé avec Intel. Intel, justement, était le grand absent de cette conférence de presse. Pas un mot n'a en effet prononcé sur les processeurs qui animeront ces Proliant Gen8. Mark Potter, en charge de l'activité serveur chez HP a simplement concédé qu'il y avait des rumeurs de nouveaux processeurs chez Intel. Le fondeur californien n'annoncera ses puces Xeon E5 - le nom qu'il ne fallait pas prononcé lors de cet événement - que début mars. Le 5 mars pour être plus précis selon un confrère d'IDG NS qui a arraché l'information à Santa Clara. Mais la plate-forme Proliant Gen8, qui sera disponible à partir de mars et progressivement étendue dans la gamme au cours de l'année, accueillera également les puces pour serveurs d'AMD.

Une plate-forme majeure pour HP

Beaucoup d'innovations ont été présentées à l'occasion du lancement du Proliant Gen8 qui autoriserait un retour sur investissement sur 5 mois et permettrait de doubler la capacité d'un datacenter selon les dirigeants de HP. Pour expliquer ces deux points, plusieurs éléments sont mis en avant et notamment l'architecture ProActive Insight. Le constructeur de Palo Alto entend bien améliorer l'automatisation des serveurs pour augmenter significativement leur disponibilité. Grâce à l'intelligence logicielle dont sont équipées ces machines, HP indique ramener à 3 secondes l'intégration d'un serveur. Avec l'outil Active Health, pas moins de 1600 paramètres du serveur sont analysés en temps réel pour prévenir les problèmes et les pannes. Et avec Smart Update, le numéro des serveurs indique pouvoir mettre à jour 1000 machines avec un seul clic.

Pour augmenter la performance de ces serveurs, HP mise également sur les SSD comme système cache et le support du PCIe 3 sur les cartes mères. Avec ces deux éléments, HP indique améliorer de 85% le trafic du stockage en entrée/sortie. Enfin, avec une nouvelle architecture pour l'écriture en cache des données sur les SSD, Mark Potter annonce une révolution aussi importante que l'arrivée du Raid en 1989. « Les serveurs et le réseau sont un frein à l'augmentation du stockage. Pour un dollar dépensé en stockage, il est nécessaire d'investir 6 dollars en serveur, en réseau et en administration. (...) Aujourd'hui nous voulons changer ce challenge  », nous a indiqué Florian Reithmeier, responsable de l'activité serveurs X86 pour HP Europe.

[[page]]

M Reithmeier définit le projet Voyager comme la fourniture de serveurs en self service. « Nous pensons que nos clients veulent passer plus de temps sur l'innovation et les nouveaux projets et moins sur la gestion de leur informatique. La question aujourd'hui est l'automatisation des Datacenter. Comment gérer, déployer simplement des nouveaux serveurs ». Pour ce faire, HP propose un QRCode avec chacun de ses serveurs Proliant Gen 8. Le scan de ce code avec un simple smartphone permet de transférer toutes les informations vers le système d'administration. Une machine peut ainsi être déployée en 3 secondes sans erreur humaine. Selon M. Reithmeier, « 70% des erreurs dans les datacenters sont dues au personnel. Nous pouvons améliorer ça ». Deux technologies proposaient par HP permettent en effet de réduire ces risques, l'ADM (Advanced Data Memory) et la présence de led sur les disques durs. La première assure l'intégrité des données grâce à des algorithmes maison et la seconde indique si un disque dur ou un SSD peut être débranché. Une manipulation pas si anodine que ça quand un opérateur doit faire face à un rack avec une centaine de disques durs.


Le système de led pour indiquer si un disque travaille encore ou s'il peut être enlevé sans risque de perte de données.

Toujours dans le domaine des centres de calcul, HP introduit un outil baptisé 3D Sea of sensor qui rassemble toutes les informations recueillies par les capteurs matériels et les sondes logicielles pour créer une représentation en 3D du Datacenter. Un bon moyen pour détecter les zones les plus chaudes, contrôler le refroidissement et la consommation électrique, augmenter ou réduire la densité dans une zone ou décider où placer certaines applications critiques. « L'idée est bien de manager plus efficacement son datacenter en apportant de l'intelligence à tous les niveaux » nous a expliqué John Gromala.

Les serveurs Proliant Gen8 sont déjà en test chez certains clients de type early-adopter. HP reviendra en détail sur les configurations techniques et les prix quand les puces Xeon E5 auront été annoncées.

(...)

(13/02/2012 17:06:55)

UptimeCloud analyse les coûts d'AWS en temps réel

Destiné aux utilisateurs d'AWS, le service de surveillance des coûts UptimeCloud aide à prévoir et gérer sa dépense dans le cloud public d'Amazon. Il devrait intéresser à la fois les nouveaux venus et les habitués d'AWS, estime Nick Johnson, directeur marketing d'Uptime, car la plupart d'entre eux ont, selon lui, du mal à contrôler leurs coûts. Pour illustrer son propos, il cite un utilisateur de la bêta version d'UptimeCloud qui décrit le processus de mise en oeuvre des services cloud par une formule lapidaire : « déployez, priez et payez ».

UptimeCloud présente un tableau de bord où l'on peut voir en temps réel le coût d'utilisation d'AWS et consulter des prévisions de facturation pour l'heure, la journée, la semaine, le mois ou l'année. Le tout s'accompagnant de recommandations sur les moyens de réduire ces coûts. La partie prévisionnelle permet de constituer un budget mensuel et de recevoir une alerte lorsque les coûts vont le dépasser. Lorsque les utilisateurs modifient leur exploitation du cloud, UptimeCloud leur indique l'impact que cela aura sur leurs coûts. 

Un service intégré via l'API d'Amazon

Le service permet aussi d'obtenir le détail de l'utilisation du cloud dans l'entreprise. Les clients peuvent voir les coûts par application, par projet, par utilisateur, par localisation, par compte, par instance, etc. Ils peuvent aussi accéder à des prévisions basées sur ces critères. Uptime dit pouvoir offrir des indicateurs plus détaillés que certains concurrents parce qu'il s'intègre avec AWS en utilisant l'interface de programmation d'Amazon. La plupart des services de suivi de coûts rassemblent les données sur les prix en se connectant via les identifiants du client. Mais, outre que cela présente des risques sur le plan de la sécurité, cela ne donne pas au fournisseur de service la profondeur de détail offerte par UptimeCloud, considère Alex Bewley, directeur technique d'Uptime. Par exemple, UptimeCloud peut analyser les variations quotidiennes de consommation et les coûts associés, ce qui peut être utile aux gros consommateurs d'instances ponctuelles d'AWS, tandis que les autres services ne peuvent pas suivre les tendances journalières, d'après le fournisseur.

Il est aussi possible de suivre les utilisateurs d'AWS individuellement et de voir la façon dont ils consomment les ressources, avec un outil de gestion des identités et des accès proposé par Amazon. Les conseils procurés par UptimeCloud sur la réduction des coûts sont surtout basés pour l'instant sur les façons de tirer avantage des options tarifaires d'AWS. Cela n'aidera pas à identifier les ressources sous-utilisées qui pourraient être regroupées pour faire des économies.

Les utilisateurs du service dans sa version bêta auraient estimé qu'ils n'avaient pas besoin de ce niveau de détail pour l'instant, a indiqué Alex Bewley. Uptime prévoit à l'avenir d'ajouter des recommandations sur les instances sous-utilisées, a précisé le directeur technique.

Cloudyn  et Cloudability proposent des services

D'autres fournisseurs aident les entreprises à gérer leurs dépenses dans le cloud. Parmi eux, Cloudyn  et Cloudability. Le premier a récemment lancé son service pour AWS. Le deuxième permet aussi de poser des alarmes lorsque les clients atteignent certains seuils. Tous deux font des suggestions pour maîtriser les coûts. Amazon lui-même compte proposer à ses utilisateurs des fonctions similaires, mais ce ne serait pas encore une priorité, selon Alex Bewley, d'Uptime. En attendant, Amazon accueille volontiers les fournisseurs tiers proposant ce genre de services. Des factures trop élevées risquent en effet de dissuader les directions des services informatiques de recourir au cloud. 

Les entreprises peuvent essayer gratuitement UptimeCloud pendant trente jours. Ensuite, elles paieront le service en fonction du nombre d'instance qu'elles exploitent sur AWS. A partir de 295 dollars par mois de 101 à 250 instances. Le service revient à 1 845 dollars par mois entre 1 001 et 2 500 instances et à 5 945 dollars par mois entre 5 001 et 10 000 instances.


(...)

< Les 10 documents précédentsLes 10 documents suivants >