Flux RSS
Infrastructure serveur
2924 documents trouvés, affichage des résultats 221 à 230.
< Les 10 documents précédents | Les 10 documents suivants > |
(21/10/2011 15:47:19)
Un peu plus détails sur Oracle Social Network
Oracle Social Network s'inscrit dans l'offre de cloud public proposée par la firme de Redwood, lors d'OpenWorld 2011. Elle se veut être un concurrent direct de Chatter de Salesforce.com, mais aussi d'autres solutions spécialisées dans les réseaux sociaux.
OSN s'intègre au sein des technologies WebCenter du constructeur, avec d'autres éléments dont les sites, portails et de contenu, a déclaré Andy Kershaw, directeur de la gestion de produit. Il a expliqué que « les entreprises utilisent des outils de collaboration aujourd'hui de manière très cloisonnée ». Par exemple, une conversation peut débuter en messagrie instantanée et peut ensuite continuer en répondant à un mail ou être redirigée vers un document stocké dans un autre système.
« Il va être extrêmement difficile chronologiquement de comprendre comment une décision a été prise ou de partager le processus de prise de décision avec les autres» souligne le responsable et d'ajouter « OSN résout le problème en réunissant des communications en temps réel, le partage de contenu, l'intégration avec les autres applications d'entreprise, les flux d'activités et des outils de recherche ». Globalement, l'objectif est d'offrir un réseau social « sans un énorme niveau de bruit » , a déclaré Kershaw. « La plus grande peur de tout dirigeant dans la mise en oeuvre de tout réseau social, c'est que ça va créer beaucoup de bruit non-productif. »
Une version cloud et sur site
OSN sera disponible dans le courant de l'année 2012. La version cloud viendra d'abord et une édition on premise sortira plus tard. Sur ce dernier point, on notera une plus grande intégration avec les services de téléphonie « plus logique que dans la version cloud ». Elles seront disponibles avec les applications Oracle Fusion, mais compatibles avec d'autres applications métiers. L'objectif est de les « socialiser » précise Andy Kershaw. OSN sera ainsi compatible avec Outlook, car le responsable constate « Aujourd'hui, Outlook est toujours le client de collaboration de choix pour beaucoup d'entreprises ». Les clients peuvent également s'attendre à des applications mobiles pour Android ainsi que l'iPad d'Apple et l'iPhone, at-il dit. Petit bémol, OSN sera compatible uniquement avec les bases de données Oracle.
Sur ce dernier point, cela fait dire à Ray Wang, PDG de Constellation Research « Etant donné que les acheteurs les plus probables seront les clients existants, Oracle mise sur une intégration du volet social au sein des applications. Les clients d'Oracle s'attendent à des fonctionnalités d'entreprise telles que la sécurité, l'évolutivité et l'intégration. »
OSN est une autre tentative d'Oracle dans le marché de la collaboration. Elle vient après InterOffice, Oracle Collaboration Suite et Beehive. Certains ont vu dans OSN un prolongement de Beehive dans le cloud, mais si OSN lui emprunte quelques éléments, elle sera un produit à part entière.
(...)
La sécurité et les bases SQL dans le cloud inquiètent les développeurs
Lorsque le cloud computing a commencé à s'installer dans le paysage il y a quelques années, la sécurité a souvent été citée comme l'un des problèmes posés. Elle reste une préoccupation centrale pour les développeurs, a confirmé cette semaine un représentant d'IBM. Au cours d'une table ronde organisée durant la ZendCon 2011, à Santa Clara, des responsables d'Amazon Web Services (AWS) et IBM ont abordé ces questions. Passer d'un système infogéré, mis en place pour une entreprise, à un environnement partagé dans le cloud signifie que les développeurs doivent bâtir une sécurité appropriée au sein de leurs applications, a en particulier indiqué Mac Devine, ingénieur chez IBM. Les développeurs ne peuvent pas partir du principe que le fournisseur de cloud public va tout sécuriser et que personne ne pourra franchir le firewall. « Il faut penser différemment. Il s'agit d'un environnement partagé, rappelle-t-il en ajoutant que « les risques arrivent avec la collaboration que permet le cloud ».
En écho, Jeff Barr (en photo), chargé d'évangéliser sur les services web chez AWS, a admis qu'il était nécessaire de se préoccuper de sécurité, mais il juge aussi que l'on dispose avec le cloud d'une infrastructure qui prend déjà en compte un certain nombre d'éléments dans ce domaine. Ce qui laisse à la charge des développeurs les niveaux de sécurité qui concernent les applications.
Les grands fournisseurs ont la capacité d'investir
La sécurité et la disponibilité sont certainement les deux priorités principales d'Amazon, a affirmé Jeff Barr, indiquant que celui-ci disposait de certifications telles que ISO 27001 et SAS 70. Il a également souligné que les fournisseurs de cloud de grande envergure pouvaient réaliser en matière de sécurité des investissements importants et à long-terme, ce que les autres ne pouvaient pas toujours faire. A cet égard, Mac Devine, d'IBM, a fait remarquer qu'un fournisseur d'infrastructure de cloud offrait une sécurité conforme à la réglementation et opérationnelle. Dans certains cas, a-t-il insisté, les clouds apportent davantage de sécurité que les systèmes installés sur site.
Les participants à cette table ronde ont également abordé l'utilisation des bases de données SQL dans le contexte du cloud. Selon Adrian Otto, responsable technique pour Rackspace Cloud, le mode de stockage des bases SQL « n'est pas idéal pour les applications cloud ». Il voit typiquement les problèmes liés à SQL comme le principal goulet d'étranglement entravant les capacités d'élasticité dans le cloud. Or, c'est justement grâce à celles-ci que les entreprises font appel, à la demande, à plus ou moins de serveurs d'applications. Adrian Otto recommande aux développeurs qui veulent bénéficier de cette élasticité de recourir à un modèle de données décentralisé qui s'ajuste (prend de l'ampleur ou se réduit) de façon horizontale. Il explique que le problème n'est pas SQL en lui-même, mais les données stockées en lignes. « C'est ce qui provoque les goulets d'étranglement », pointe-t-il.
Jeff Barr, d'Amazon, a par ailleurs fait remarquer que les développeurs ne devaient pas s'attacher aux ressources individuelles accessibles dans le cloud, rappelant qu'il fallait les considérer comme « essentiellement transitoires et remplaçables ». Interpellé par une personne de l'auditoire sur le problème des entrées/sorties incohérentes dans le cloud, Jeff Barr a laissé entendre, tout en ne souhaitant pas s'étendre sur le sujet, qu'Amazon travaillait sur quelque chose dans ce domaine. « Nous essayons en permanence de tout améliorer ».
Illustration : à gauche, Jeff Barr, évangéliste chez AWS, à droite, conférences sur ZendCon (crédit : site ZendCon.com)
Cigref : une AG sous le signe de la gouvernance, du cloud et des relations commerciales
Au Pavillon Gabriel, à Paris, le 19 octobre, le Cigref a tenu son assemblée générale annuelle. Ce club, qui regroupe les plus grandes entreprises de France, y a bien sûr fait le bilan de l'année écoulée mais a aussi partagé sa vision de l'avenir des systèmes d'information. De plus, Pascal Buffard a été élu président du club en remplacement de Bruno Ménard.
Ce dernier a tenu à rendre hommage à deux personnes décédées cette année : Philippe Chalon, ancien DSI groupe de Total mort après une longue maladie et François Renault, président de l'AFAI ayant initié un partenariat avec le Cigref et l'Ifaci pour la rédaction d'un guide de la gouvernance, victime d'un accident. Pascal Buffard a, pour sa part, remercié pour son travail Francis Aaron, vice-président sortant du Cigref, à l'origine de la charte Cigref-Syntec, et DSI groupe de Bolloré qui a pris sa retraite cette année.
L'année écoulée a été globalement marquée par la célébration des quarante ans du club. Cette occasion a été employée pour prendre acte de la transformation du monde et de l'impact induit sur la fonction de DSI. Le Cigref, par conséquent, se fixe désormais pour mission de « promouvoir le numérique comme source d'innovation et de performance ». Comme l'a souligné Patrick Hereng, DSI groupe de Total, « l'innovation est source de compétitivité ». Le Cigref s'est également réjoui de l'avancement de son programme international de recherche sur l'entreprise en 2020.
Le bilan du travail des commissions a été l'occasion de rappeler quelques sujets de préoccupation pour les DSI.
Guerre des talents, agilité insuffisante...
Ainsi, comme l'a rappelé Bertrand Eteneau, il existe toujours des tensions sur le marché du travail. Les entreprises se battent toujours pour attirer et fidéliser les bons talents. Bizarrement, dans un pays à fort chômage comme la France, personne ne songe à cultiver les talents pour les rendre pertinents ou, simplement, à prendre acte de la pertinence de candidats n'ayant pas fait Polytechnique, Normale-Sup et l'ENA.
Georges Epinette a, quant à lui, fustigé l'agilité insuffisante des entreprises qui doivent adopter une « gouvernance de l'inattendu ». Cela passe bien sûr une agilité de chaque composante de l'entreprise, pas seulement informatique, le combat en faveur de la transversalité et contre les silos, un choix de la rusticité plutôt que de la complexité, etc. Les entreprises doivent apprendre à « piloter dans le brouillard » selon le mot de Jean-marc Lagoutte, DSI du groupe Danone.
Si le cloud reste un sujet fort, la relation avec les fournisseurs devient de plus en plus complexe à cause de lui comme l'a souligné Alain Moustard, DSI de Bouygues Telecom. Le problème des licences de logiciels propriétaires (fixées selon des critères inappropriés) demeure un frein important au déploiement du Cloud. Philippe Rouault, DSI de France Télévision, a d'ailleurs fustigé la démarche des éditeurs qui confondent audit des licences et démarche commerciale pour en vendre un peu plus. La plupart des entreprises restent frileuses quant aux SaaS a d'ailleurs indiqué Bernard Duverneuil (DSI d'Essilor).
En 2011, le Cigref a travaillé avec SAP (en collaboration avec l'USF) et Orange Business Services pour rédiger des livres blancs sur leurs pratiques commerciales. L'année 2012 devrait aboutir à des documents similaires pour HP, Oracle et Microsoft.
IBM intègre de l'analytique dans les mainframes et les serveurs
IBM a décrit ses serveurs Smart Analytics System comme des packs comprenant du hardware et des logiciels analytiques, de la BI (business intelligence) et des systèmes de traitement d'importants volumes de transactions. Big Blue en a également profité pour annoncer une appliance de business analytics (BA) d'entrée de gamme capable de traiter des données à la volée, pour les transactions réalisées dans le cloud par exemple.
Le constructeur fait le choix de s'orienter vers une offre de serveurs conçus pour des charges de travail spécifiques, comme les bases de données et la gestion des processus d'entreprise (BPM). Les serveurs Smart Analytics sont basés sur des matériels IBM existants et tournent sur des puces x86 et sur des processeurs Power. Comme le fait valoir IBM, les solutions Smart Analytics 9700 et 9710, basées sur l'architecture zEnterprise, ont pour objectif de fournir une appliance analytique opérationnelle à un prix abordable. Ces serveurs peuvent tourner sur SUSE ou Red Hat Linux.
Le constructeur a également annoncé un Smart Analytics System 7710 basé sur le processeur Power, et le 5710, basé sur le processeur x86, deux solutions « que l'on peut déployer en quelques jours, et qui comprennent notamment des fonctions de reporting en BI, d'exploration de données et d'analyse des données non structurées, » a ajouté le constructeur dans sa présentation. « Basé sur le serveur P740, le Smart Analytics System 7710 tourne sous l'OS AIX et convient à l'entreposage de données en-dessous des 10To, » a encore détaillé IBM. Quant au 5710, basé sur une architecture System X, il tourne sous Linux et est livré avec InfoSphere Warehouse 10, ainsi que le logiciel de BI Cognos 10. Pour l'instant, on ne connaît ni le prix, ni la date de disponibilité de ces serveurs.
Une vue sur la concurrence et sur le cloud
Sur le marché du serveur unifié, IBM est en concurrence avec Oracle, lequel propose une Exadata Database Machine, un système préconfiguré conçu pour l'entreposage de données et le traitement des transactions. La solution Exadata associe un logiciel d'Oracle à du hardware et des solutions de stockage Sun.
IBM a également annoncé une technologie DB2 Analytics Accelerator, qui doit aider les clients à traiter beaucoup plus rapidement les quantités massives de données circulant à travers le cloud. « Au lieu d'attendre la sortie des rapports, les clients peuvent disposer d'une analyse approfondie et prendre des décisions alors que les transactions sont en cours de traitement dans le cloud, » a déclaré une porte-parole d'IBM. L'appliance analytique se branche sur le serveur d'entreprise zEnterprise 196 d'IBM, et l'accélérateur se connecte à la base de données DB2 pendant que les transactions sont traitées dans le cloud.
L'accélérateur intègre une technologie héritée de Netezza, un fournisseur de données analytiques basé aux Etats-Unis, acquis par IBM l'an dernier pour 1,7 milliard de dollars. « C'est la première fois que la technologie de Netezza est portée sur le cloud, » a indiqué la porte-parole d'IBM. L'appliance pour serveurs sera disponible en novembre, mais IBM n'a pour l'instant fourni aucune indication sur son prix.
Crédit Photo : IBM
IBM étend son datacenter genevois
Construit en 2005, le centre bénéficie désormais de 900 m2 supplémentaires pour atteindre une surface totale de 3100 m2. Des surfaces sont en outre encore disponibles pour d'éventuels futurs agrandissements supplémentaires. Le nouveau centre, qui met en oeuvre des technologies issues des laboratoires de recherche IBM, est prêt à accueillir ses premiers clients dès le mois prochain.
Efficacité énergétique
L'agrandissement du centre répond aux besoins actuels des clients qui souhaitent par exemple pouvoir disposer de services de racks gérés ou d'espaces dédiés. Ces éléments permettent également une exploitation plus efficace de l'infrastructure, qui atteint désormais des performances vont désormais atteindre de 2 à 5 kilowatts (kW) par mètre carré. Par ailleurs, le système de refroidissement à la source permet une climatisation efficace et concentrée de l'ensemble de l'infrastructure.
Disponibilité et sécurité élevées
Les espaces clients dédiés sont protégés par des mesures de sécurité avancées associées à des contrôles d'accès électroniques et biométriques. Les locaux privés sont isolés physiquement par des parois en dur et par des systèmes d'accès individuels. Tous les espaces dédiés et les locaux privés disposent de plus d'une alimentation individuelle en électricité et en refroidissement, permettant, notamment une densité élevée avec 20 kW par rack. L'ensemble de l'infrastructure est conçu de manière redondante, permettant d'effectuer les travaux d'entretien sans immobiliser les systèmes.
ICTJournal.ch
Trimestriels Intel : des revenus portés par les entreprises et les marchés émergents
Le chiffre d'affaires est « pour la première fois », selon Stéphane Nègre, PDG d'Intel France au-dessus des 14 milliards de dollars, soit une progression sur l'année de 28%. Les bénéfices atteignent 3,7 milliards de dollars soit une hausse de 24%. C'est supérieur aux attentes des analystes. En regardant de près, les raisons d'un tel résultat, on constate que le chiffre d'affaires sur le marché global du PC est en hausse de 22% (9,4 milliards de dollars). Une analyse plus fine montre que ce marché a été porté par les pays émergents et le monde professionnel. « Sur les PC grand public dans les pays matures, nous constatons une activité plate, mais pas de décroissance », précise Stéphane Nègre. La division serveur progresse fortement au regard de la demande des entreprises, mais aussi « du besoin des particuliers de se connecter à Internet via un smartphone ou une tablette, derrière il y a toujours un serveur » souligne le dirigeant.
Optimisme prudent pour 2012
Sur la partie Atom, la chute est brutale avec 32% de baisse de revenu (269 millions de dollars). Pour Stéphane Nègre « ces processeurs étaient portés par le marché du netbook, nous sommes aujourd'hui dans une montée en gamme vers les notebook et prochainement vers les ultrabook ». Mais il n'enterre pas Atom pour autant « il existe d'autres opportunités comme les micro-serveurs et surtout les smartphones, ainsi que les tablettes ou les box Internet ». Le dirigeant se veut donc optimiste pour la fin de l'année et pour 2012, tout en restant prudent « au regard des évolutions économiques, politiques et financiers ». Sur la partie professionnelle, Stéphane Nègre a confirmé « la livraison des puces serveurs avec la micro-achitecture Sandy Bridge, beaucoup d'entreprises sont intéressées notamment dans le HPC ». Le lancement commercial des puces se fera au premier semestre 2012.
(...)(19/10/2011 09:58:54)Enterasys défie Cisco et HP avec la matrice de commutation OneFabric
OneFabric doit permettre aux clients de provisionner les ressources réseau d'une entreprise à partir d'une console de gestion unique. La matrice est également conçue pour réduire les couches réseaux afin de simplifier les opérations, améliorer les performances et réduire les coûts. « Enterasys propose trois offres sur OneFabric : Data Center, Edge et Security. L'objectif est de laisser aux clients le choix d'implémenter le système dans l'environnement où le besoin de simplification et de cohérence est le plus important, » a indiqué l'entreprise.
HP propose déjà une matrice destinée à unifier les réseaux au sein du datacenter. La stratégie FlexNetwork de HP vise également à fournir des services communs, cohérents, capables de garantir une certaine performance pour faire tourner les applications au sein de toute l'entreprise. D'autres, comme Cisco, Juniper et Brocade, offrent des options de commutation qui s'appliquent principalement au centre de calcul et aux environnements cloud. Mais, selon Enterasys, « les architectures des matrices actuelles sont complexes et leur valeur ajoutée est limitée. » Notamment, elles ne fournissent aucune visibilité de bout en bout sur les services, aucune optimisation unifiée sur l'ensemble de l'entreprise, et nécessitent des mises à niveau coûteuses et perturbantes, sans compter que ce sont des solutions propriétaires, comme l'affirme encore Enterasys Networks. Par ailleurs, comme le fait valoir l'entreprise, « ces solutions nécessitent plusieurs outils de gestion, comparativement à une console unique, et ont tendance à sur-provisionner la bande passante au lieu d'allouer un niveau garanti. »
Une priorité à l'utilisateur et à l'application
Selon Enterasys, sa solution OneFabric serait essentiellement fondée sur l'utilisateur et sur l'application, et non pas sur l'infrastructure. Elle s'appuierait sur son expérience en matière de profilage utilisateurs, de contrôle d'accès et de sécurité des réseaux. Elle supporterait également l'interface du réseau social Isaac, annoncé récemment par Enterasys, pour gérer le commutateur. « C'est très ambitieux », a déclaré Zeus Kerravala, analyste principal chez ZK Research. « Et il faut leur reconnaître un certain mérite d'en avoir eu l'idée. Si l'on pense au concept de virtualisation de bureau et de communications en temps réel, cela justifie certainement le besoin d'étendre la matrice de commutation à l'extérieur du datacenter. Tous les autres fournisseurs se concentrent sur l'infrastructure, sur la manière dont elle doit être reconstruite. Cette souplesse de gestion est une bonne stratégie pour Enterasys. »
Ces politiques concernant l'utilisateur, les applications et la sécurité peuvent être administrées et contrôlées par le OneFabric Control Center, véritable poste de gestion centralisé pour l'environnement OneFabric. Le centre de contrôle prend aussi en charge l'intégration avec les hyperviseurs de VMware, Citrix et Microsoft pour la gestion des machines virtuelles dans le data center. « OneFabric envisage d'étendre l'intégration aux charges de travail des équipes qui gèrent la virtualisation et le stockage de façon à permettre au service informatique d'automatiser certaines opérations et de délivrer les accords de niveau de service (SLA), » a déclaré Enterasys.
Dans un environnement fortement concurrentiel, OneFabric ne sera pas à court de défis. L'entreprise compte pour l'instant pour une part minime dans le marché de la commutation Ethernet dominé par Cisco et HP. « Elle doit aussi répondre à la question de savoir comment OneFabric va pouvoir s'intégrer dans des environnements multi-fournisseurs, » a déclaré Zeus Kerravala.
Les dépenses IT devraient croître de 3,9% en 2012 selon Gartner
Même si ce chiffre constitue un léger ralentissement par rapport à 2011 (+5.9%), Gartner souligne que les entreprises semblent vouloir poursuivre leurs investissements IT en dépit des tensions économiques globales.
Selon Peter Sondergaard, senior vice president chez Gartner, 65% des PDG estiment qu'au cours de la prochaine décennie, l'informatique contribuera plus que jamais auparavant à l'essor de leur secteur. Il a également noté que les dirigeants du monde IT doivent s'adapter aux rapides changements de paradigmes auxquels fait face le monde IT. A ce propos, il est revenu sur les défis que représentent le cloud, le web social, l'internet mobile, ainsi que l'explosion de la quantité d'informations disponibles. Pour chacun de ces domaines, il a évoqué les défis principaux qui attendent les dirigeants IT.
Des défis de taille
Le cloud: en 2010, les services cloud représentaient 3% des dépenses des entreprises. Ces 4 prochaines années, ces dépenses vont croître cinq fois plus rapidement que les dépenses IT globales (+19% par année jusqu'en 2015). La manière dont les entreprises gèrent leurs données est ainsi appelée à connaître de profondes mutations.
Le web social: alors que 1,2 milliards de personnes sont aujourd'hui sur des réseaux sociaux, les dirigeants IT doivent urgemment se préoccuper d'incorporer des fonctionnalités sociales au sein même de leurs systèmes d'entreprise.
Les données: selon M. Sondergaard, «La donnée est le pétrole du 21e siècle, et l'analyse fera office de moteur à combustion». Cette explosion du nombre de données disponibles va imposer une refonte totale de la stratégie de gestion des données au sein des entreprises, avec une démultiplication des systèmes (content management, data warehouse) connectés via des services de données et des métadonnées.
L'internet mobile: en 2010, le nombre de laptops, tablettes et smartphones entrés sur le marché a dépassé celui des PC de bureau traditionnels. En 2016, Gartner estime que 900 millions de tablettes numériques seront vendues. Cela nécessitera de la part de l'IT de repenser complètement la manière de fournir ses applications à ses utilisateurs. D'ici à 2014, 60% des entreprises IT auront déployés des app stores privés. Quant aux applications proprement dites, elles seront entièrement reconçues, pour devenir contextuelles, comprenant automatiquement l'intention de l'utilisateur.Crédit Photo : D.R
(...)(18/10/2011 17:13:04)
Le cloud by Bull accompagne les entreprises dans leur transformation
Dominique Deboeuf, directeur marketing Computing Solution chez Bull explique « nous avons eu beaucoup de demandes des entreprises qui vont vers la « cloudisation » de leur système d'information ». Dans cette approche de transformation de l'entreprise, Bull adopte une démarche « pragmatique » en proposant Cloud by Bull qui comprend 4 piliers. Le premier est le cloud métier, « il s'agit d'établir une méthodologie, des analyses des besoins et de la maturité des entreprises sur le cloud. L'ensemble de cette démarche est regroupe au sein d'une offre de consulting baptisée Advisory for cloud » précise le responsable.
Le second pilier se nomme cloud agile. Il repose sur la solution Bullion cloud platform qui réunit au sein d'un même rack, le serveur Bullion et les solutions de VMware avec VSphere 5. L'aspect stockage est pris en charge par EMC. Cette offre est disponible sous trois configurations : Découverte (pour le développement d'applications), Département avec utilisation maximale des ressources et Entreprise comprenant des options de sécurité avancées.
Hébergement de clouds privés et conseils en sécurité
Le troisième pilier s'appelle cloud maîtrisé et comprend des offres pour la mise en place de clouds privés hébergés. Deux solutions sont disponibles, Managed Private Cloud (pour les clouds privés des entreprises) et MPC for E-Business ( à destination des acteurs de ce secteur) « Que l'on soit dans le cloud public ou privé, les responsables informatiques veulent conserver le contrôle de leur systèmes d'information » explique Dominique Deboeuf.
Enfin, le dernier pilier est le cloud sécurisé. Bull propose un ensemble de services de consultant pour identifier les risques et proposer des solutions techniques, comme la gestion des identités et des accès, la sécurité des liens et des données via du chiffrement haute performance.
Pour conclure, le responsable nous indique que « ces offres s'adressent aux grands comptes, mais également aux PME qui sont dans une démarche de réflexion avancée sur le sujet du cloud. »
(...)(18/10/2011 11:49:16)HP et Microsoft lancent des serveurs préconfigurés avec Hyper-V
Le Virtual System d'HP pour Microsoft comprend des serveurs du constructeur et le logiciel de virtualisation Hyper-V de l'éditeur. Ils aideront les clients de déployer rapidement des applications, y compris SharePoint, Exchange Server et SQL Server, a déclaré Jeff Carlat, directeur des partenariats, ISS, ESSN chez HP.
Les charges de travail virtuelles, le matériel et les autres ressources pourront être gérés à l'aide de HP Insight Control d'HP et System Center de Microsoft. « Les serveurs fournissent un chemin pour aider les clients à construire des clouds privés et publics, et relier les deux dans un cloud hybride » précise le dirigeant et d'ajouter « VirtualSystem pour Microsoft utilise la même architecture que CloudSystem d'HP, qui combine le stockage, le réseau et les serveurs pour diminuer la durée d'intégration lors d'un déploiement cloud. »
A noter que beaucoup de constructeurs proposent des serveurs pré configurés, mais avec l'ESX de VMware. HP dispose d'ailleurs d'une offre VirtualSystem pour VMware.
Deux offres et une solution pour Superdome 2
La solution proposée par les deux acteurs sera disponible en novembre au prix d'environ 175 500 dollars aux États-Unis. Elle sera proposée en deux modèles, VS1, pour les entreprises qui souhaitent héberger environ 750 machines virtuelles et VS2 pour celles déployant environ 2 500 machines virtuelles. Les prix ne comprennent pas les licences de Microsoft, mais Hyper-V sera gratuit si les clients s'équipent de Windoxs Server 2008 r2.
Le VS1 peut être configuré avec jusqu'à huit serveurs HP ProLiant DL380 G7, des connexions 1Gb et 10Gb Ethernet et un SAN P4500 LeftHand, d'une capacité de 14 à 57 To. Le VS2 peut comprendre jusqu'à 12 serveurs HP ProLiant BL460c G7, de multiples réseaux et des modules de connectivité de stockage et un SAN P4800 LeftHand d'une capacité allant jusqu'à 84 To.
HP a également lancé des VirtualSystem pour Superdome 2 à destination des entreprises comme les établissements financiers qui utilisent ces systèmes. Ces derniers fonctionnent avec des processeurs Itanium d'Intel et le système d'exploitation HP-UX.
Les serveurs haut de gamme ont souvent besoin d'un niveau élevé de personnalisation, mais la configuration d'origine donne la possibilité d'intégrer certaines technologies comme la gestion du stockage 3Par, au sein d'un système virtualisé. HP n'a pas cependant pas fourni de prix pour le VirtualSystem pour Superdome 2.
< Les 10 documents précédents | Les 10 documents suivants > |