Flux RSS
Infrastructure serveur
2924 documents trouvés, affichage des résultats 91 à 100.
< Les 10 documents précédents | Les 10 documents suivants > |
(16/01/2012 17:15:20)
Windows Server gratuit dans le cloud d'Amazon
Après Linux, les entreprises peuvent désormais exécuter Windows Server sur la plate-forme d'Amazon pour jusqu'à 750 heures par mois, sans frais, à l'aide de la plate-forme AWS (Amazon Web Services) Free Usage Tier, a indiqué la société. Suite à cette annonce, les entreprises qui exécutent des applications sur Windows Server peuvent essayer sans frais le cloud d'Amazon. Les utilisateurs peuvent choisir dans une gamme de machines virtuelles Amazon pré-configurées avec Microsoft Windows Server 2008 R2. Les bulles Windows Server s'exécutent sur une instance micro ou serveur virtuel, avec 613 Mo de mémoire vive et le support des instructions 32 ou 64 bits.
Le service FUT (Free Usage Tier ) a été lancé en 2010, mais jusqu'à il n'était disponible que pour Linux. Les entreprises peuvent désormais exécuter deux systèmes d'exploitation (Linux et Windows donc) pour un maximum de 750 heures par mois pendant un an. Au-delà, les entreprises doivent payer les frais réguliers, qui commencent à 0,02 dollar par heure pour Linux et 0,03 dollar pour Windows.
Si l'utilisation dépasse la limite des 750 heures par mois, les utilisateurs doivent également ouvrir leurs portefeuilles. Par exemple, si deux instances de Windows Server 2008 R2 sont actives pendant 400 heures chacune pendant un seul mois, l'utilisateur a accumulé 800 heures d'utilisation, dont 750 heures seront gratuites, et les 50 heures restantes facturées au prix standard . Le palier comprend également une utilisation limitée de l'équilibreur de charge d'Amazon, les services de stockage (S3 et Elastic Block Store) et la base de données SimpleDB.
(...)(16/01/2012 09:52:25)
Dell dévoile des certifications cloud
Dell a profité de son forum européen sur le stockage, qui se tenait du 9 au 12 janvier derniers à Londres, pour annoncer le lancement d'une nouvelle certification autour du Cloud Computing dans le courant du premier semestre 2012. Tout n'est pas encore finalisé, le fabricant réfléchissant encore à la meilleure façon de la mettre en oeuvre. On sait déjà que ce nouveau label revendeur, qui sera intégré au programme Partner Direct, va se décliner en trois catégories : Cloud Builder, Cloud Provider et Service Enabler. « Jusqu'ici, l'accompagnement que Dell offre à ses revendeurs dans la construction d'une solution de cloud privé se concentre principalement autour du matériel. Pour le reste, par exemple le choix de l'hyperviseur, ils sont autonomes, ce qui implique qu'ils aient fait l'effort préalable de se former eux-mêmes. Avec notre certification, nous allons leur apporter ce savoir-faire et les aider ainsi à accroître ou démarre leur activité sur le marché du cloud computing», explique Alexandre Brousse, le directeur du channel chez Dell France.
A l'issue de l'obtention de la certification Cloud Builder, les partenaires de Dell seront capables de mettre en place un cloud privé chez leurs clients. La certification Cloud Provider leur permettra quant à elle d'être en mesure de proposer une offre de cloud privé totalement hébergée chez eux ou en partie. Enfin, la catégorie Service Enabler atteste de la capacité d'un partenaire de Dell à gérer une infrastructure de cloud privé de A à Z.
Mieux classifier la documentation en ligne destinée aux revendeurs
Le forum européen de Dell a été aussi l'occasion de dévoiler de nouveaux outils destinés à faciliter les démarches commerciales et techniques des revendeurs. Le premier d'entre eux, le Storage Master Tool (SMT), offre un accès plus simple à la masse d'informations mises à leur disposition par le fabricant. Grâce au SMT, celles-ci sont désormais classées d'une part en fonction du type de produits qu'elles concernent (gouvernance, consolidation, virtualisation, optimisation des applications...) puis selon l'étape du cycle de vente durant laquelle elles sont utiles (identification, qualification, proposition et conclusion du contrat). «Le configurateur SMT est public mais l'accès à certaines informations nécessite d'être un revendeur membre de notre programme Partner Direct », précise Alexandre Brousse. Déjà disponible en Anglais, l'outil devrait être proposé en français à compter du mois de février.
Autre outil présenté par Dell, le Performance Analysis Collection Kit (DPACK) est destiné à la réalisation d'analyses automatisées de datacenters. Utilisé à l'origine en interne par Dell, il donne à ses revendeurs la possibilité de détecter des problèmes dans le système informatique d'un client. Il sert également au dimensionnement des différents éléments d'une solution (nombre de serveurs, mémoire, capacité de stockage) qui vont permettre de répondre aux besoins d'un client. L'outil doit être encore traduit en français mais serait déjà utilisé par des revendeurs en France.
En revanche, il faudra attendre le mois d'avril pour voir arriver le Online Solution Configuration Tool (SCT / outil de configuration de solution en ligne), troisième et dernier outil annoncé lors du forum européen de Dell. Basé sur un indexe renfermant l'ensemble des produits et des bundles du constructeur en matière d'infrastructure, il peut déterminer si les différents éléments d'une solution complète sont compatibles entre eux (des serveurs avec des commutateurs par exemple) et fonctionneront donc bien ensemble. Dell fournit déjà un configurateur de produits en ligne. Mais celui-ci ne peut attester que de la compatibilité des différents éléments constitutifs d'un seul produit. Cerise sur le gâteau, le SCT indique aussi au revendeur le prix public de la solution qu'il a créée. Dommage que le niveau de remise du partenaire n'y figure pas également.
(...)
Econocom investit dans Centix, spécialiste belge du cloud
Le groupe Belge spécialisé dans la fourniture de matériels et de services IT et télécoms vient de prendre une participation de 40% dans le capital de son compatriote Centix. Créée en 2007, cette entreprise réalise un chiffre d'affaires de 2 millions d'euros grâce à ses fortes compétences en virtualisation de serveurs et de postes de travail.
Ce rapprochement qui va permettre au groupe Econocom de proposer à ses clients une offre de migration de l'ensemble de leurs infrastructures IT vers le cloud pourrait n'être qu'une première étape dans la relation entre les deux sociétés. Selon l'accord qu'elles ont signé, Econocom dispose en effet d'une option d'achat du solde des titres de Centix pendant trois ans.
(...)
La banque BBVA passe ses 110 625 employés sur Google Apps
BBVA (Banco Bilbao Vizcaya Argentaria), l'un des plus grands groupes bancaires dans le monde, a annoncé aujourd'hui sa migration sur Google Apps comme solution de communication et de collaboration, dans le cadre de sa stratégie d'innovation. Au cours de l'année, plus de 110 625 collaborateurs de l'établissement adopteront progressivement des applications telles que Gmail, Google Calendar ou Google Docs. La banque espagnole explique vouloir ainsi augmenter son efficacité, faciliter la collaboration entre ses diverses entités mondiales du groupe et stimuler l'innovation au sein du groupe. La banque hispanique, fortement présente en Amérique latine va également créer un réseau social pour ses employés, afin d'améliorer la communication et d'explorer de nouvelles manière de travailler.
Un accord important pour GoogleLe contrat signé avec BBVA est important pour Google à plusieurs titres. Tout d'abord parce qu'il s'agit de son plus grand accord dans le domaine de l'entreprise. Ensuite, parce qu'il s'agit d'un établissement bancaire, qui plus est européen. Des atouts symboliques quand on sait les réticences du secteur financier à l'égard du cloud et ses craintes quant à la fiabilité des services et la confidentialité des données. Sébastien Marotte, responsable des applications d'entreprise pour Google en Europe, ne s'en cache pas: «Pour nous, le fait que BBVA, l'une des entités financières les plus importantes du monde, décide de faire le saut vers Google App renforce notre stratégie de miser sur le cloud computing».
Selon la BBC, les données du groupe bancaire hispanique ne seront pas hébergées sur des serveurs dédiés, ou un cloud privé, mais distribuées au sein du cloud public constitué par les centres de données de Google. Les responsables de Google et BBVA ont toutefois insisté sur le fait que cette solution satisfait tant aux exigences règlementaires du secteur bancaire, qu'à celles qui concernent la protection des données.
(...)(12/01/2012 10:59:37)G-Cloud, une plate-forme privée partagée entre plusieurs ministères français
La DILA (Direction de l'Information Légale et Administrative) est issue essentiellement de la fusion de la Direction des Journaux Officiels et de la Direction de La Documentation Française. Outre les publications officielles, elle s'occupe également d'assurer la production informatique d'applications soit pour elle-même soit en inter-ministériel ou pour le compte d'autres administrations (par exemple la DGME). Dans ce cadre, elle vient de décider de mettre en oeuvre et d'opérer un cloud privé destiné aux administrations d'Etat, G-Cloud. Ce cloud est intégré par Accenture avec des technologies Cisco, NetApp et VMware (FlexPod).
La DILA opère sur un budget annexe de l'Etat (comme la DGAC) et non pas sur le budget général. Elle doit donc avoir un budget équilibré, voire faire des bénéfices, et vend ses services, notamment ses publications et ses services d'exploitation informatique, notamment aux autres administrations.
Une activité 24 h/24 et 7 j/7
« La DILA a une activité obligatoirement 24 heures 24, 7 jours sur 7, mais nous n'avons pas en interne la masse critique nécessaire pour rentabiliser au mieux les ressources mobilisées » explique Jean-François Imokrane, responsable du département SI de la DILA. Cette administration gère déjà l'exploitation d'applications pour le compte d'autres administrations. La logique actuelle est de réinternaliser au sein du secteur public et de mutualiser entre administrations un maximum d'applications. Les services d'e-administration mis en oeuvre par la DGME ont ainsi vocation à être progressivement hébergés par la DILA. De plus, les services actuellement hébergés ont tendance à connaître une forte croissance.
La salle serveur de la DILA n'était plus à la hauteur des besoins. Une nouvelle salle a donc été livrée à l'été 2011 et est actuellement en cours d'équipement. Le G-Cloud y sera hébergé. Jean-François Imokrane précise : « l'architecture de type cloud a été choisie pour sa flexibilité et son extensibilité, donc sa capacité à absorber la croissance des services que nous hébergeons déjà et l'arrivée éventuelle d'autres services ». Mais, cependant, ce cloud opéré par la DILA ne sera pas forcément le seul service de ce type dans les administrations d'Etat. « Nous opérons un cloud d'Etat, pas forcément le seul cloud d'Etat » confirme Jean-François Imokrane.
Le montant du marché n'a pas été communiqué et n'était pas disponible parmi les notifications de marché public du BOAMP. (...)
CES 2012 : Acer mise sur les ultrabooks et le stockage en ligne
Le constructeur taïwanais a fait plusieurs annonces lors de sa conférence pré-CES qui ouvrira ses portes demain à Las Vegas. Parmi les produits attendus, l'Aspire S5 se définit comme l'ultrabook le plus fin du moment avec 15 mm d'épaisseur. Doté d'un écran de 13,3 pouces et d'une coque mélange d'aluminium et de magnésium, il se veut à la fois facile à transporter et particulièrement réactif. Grâce à son système Green System On, l'ordinateur peut sortir d'une période de veille en 1,5s seulement et proposer instantanément une mise à jour des comptes mail et de l'actualité des réseaux sociaux. Cet ultrabook, qui succède à l'Aspire S3 présenté à l'IFA de Berlin au mois de septembre dernier, est attendu sur le marché au deuxième trimestre 2012.
Toujours à Las Vegas, Acer inaugure une gamme d'ultrabooks baptisés Timeline Ultra, de 14 et 15 pouces qui embarqueront la même technologie Green Instant On que l'Aspire S5.
Le AcerCloud, une offre de stockage en ligne
Acer a présenté aussi son offre de stockage en ligne, qu'il a nommé AcerCloud. Cette offre de service s'apparente à celle d'Apple avec iCloud, (au point de copier quelque peu la présentation de la firme de Cupertino en la matière). Cette solution se décline en trois services : Picstream pour le téléchargement de photo, AcerCloud Docs pour la synchronisation de documents (les informations sont conservées pendant 30 jours) et Clear.Fi Media pour les contenus multimédias (vidéo et musiques). A noter pour ce dernier qu'Acer propose du streaming via un index de musique présent sur l'ordinateur et non du stockage en ligne. Le service d'Acer est gratuit et pour l'instant sans limitation de volume. Il sera disponible à la fin de cette année pour l'Europe
Extrême Networks livre un switch 40G pour datacenter véloce
Le BlackDiamond X8 est un équipement au format 1/3 de rack soit 14,5U à destination des datacenters avec une capacité de commutation de 20 Tbt/s plus ou 1.28 Tb/s par slot. Il peut supporter 768 ports 10G Ethernet et jusqu'à 192 ports 40G Ethernet. Selon le constructeur, la latence de port à port est inférieure à 3 microsecondes, la consommation au port 10G est de 5 watts. Il est capable de gérer 128 000 machines virtuelles. Ce commutateur intègre en outre la technologie OpenFlow qui facilite l'allocation automatique de ressource.
Au mois de novembre dernier, Lippis Reports, laboratoire de test, a publié des benchs de performance sur différents commutateurs de coeur de réseau. Le BlackDiamond X8 a été entre 3 et 10 fois plus rapides que ses concurrents, il avait la plus faible latence et la meilleure efficacité. Selon Gary Newbold, directeur d'Extreme Networks pour le Royaume-Uni et Ireland, le lancement officiel du X8 et l'élan médiatique qui a entouré sa présentation en 2011 lors du salon Interop ont ouvert de nouvelles opportunités commerciales pour la société. Il vise notamment « les établissements financiers que nous avions délaissé, car nous n'avions pas de produits ». Il ajoute « dans le secteur de la finance, la latence est un élément très important dans une transaction. En étant bien positionné sur les temps de latence dans les commutateurs de coeur de réseau, cela devrait attirer l'attention. »
Extreme Networks a déjà vendu son premier BlackDiamond X8 à un laboratoire de recherche, où la puissance pure et la densité sont importantes pour effectuer des calculs complexes via du HPC. « Nous pensons avoir une différence significative pour prendre des parts de marché, il ne s'agit pas d'un produit qui ressemble à un autre. Il va nous permettre d'augmenter significativement nos revenus », a déclaré Gary Newbold. Extreme n'est pas le seul constructeur réseau à déployer des équipements avec des modules 40G Ethernet. Le Z9512 de Dell supporte 96 ports 40G, mais Cisco et d'autres fournisseurs de commutateurs pour datacenter prévoit des lancements cette année d'offres similaires. Gary Newbold reste confiant en soulignant que le X8 est très en avance en termes d'efficacité.
Nuage, une alternative cloud au projet Andromède
Dans l'appel d'offres relatif au cloud computing au sein du Grand Emprunt, le projet Nuage décide de sortir de l'ombre et de communiquer. Il est composé de 7 PME : Celeste, FAI et concepteur de datacenter ; Non Stop Systems, SSII spécialisée en solutions d'infrastructures sécurisées ; Oodrive éditeur de solutions professionnelles de sauvegarde et de partage de fichiers en ligne ; DotRiver qui propose des solutions de virtualisation et de centralisation de poste de travail ; Network Consulting, hébergeur ; New Generation SR, conseil en responsabilité sociale des entreprises.Deux équipes des projets REGAL (répartition et gestion des applications à large échelle) et PHARE (sur les futurs générations des réseaux télécoms) du laboratoire LIP6 de l'université Pierre et Marie Curie.
Selon Nicolas Aubé, PDG de Celeste, « l'idée est de créer le cloud computing de demain : ouvert à des composantes matérielles et logicielles externes, réparti sur un maillage régional français, et hébergé dans des datacenters écologiques, faiblement consommateurs d'énergie ». Le groupe souligne aussi l'importance de la localisation des données sur le territoire français.
Open Source et datacenter pilote
Concrètement, il s'agit d'un projet de R&D qui doit durer deux ans avec une forte connotation Open Source, pour trouver des solutions alternatives à celles existantes. Pendant cette durée, un datacenter pilote va être créé pour proposer des offres clouds. Nicolas Aubé indique « nous souhaitons travailler sur des datacenters évolutifs avec des modules verticaux optimisant mieux la consommation d'énergie. Les entreprises pourront s'interconnecter pour chercher des ressources ou des services ». Sur la partie du matériel utilisé, le dirigeant que rien n'a été encore choisi, mais il souhaite que les solutions proposées par Nuage soit compatible avec le plus grand nombre de constructeurs.
Sur le plan du financement, un investissement de 10 millions d'euros est prévu (5 en subventions de la part du FNSN de la Caisse de Dépôts et 5 de la part des membres du consortium). Nicolas Aubé rappelle que cela va créer 50 emplois, principalement des ingénieurs. Au terme des 2 ans, Celeste va investir 5 millions d'euros pour la commercialisation des résultats de Nuage. Ce dernier est un concurrent direct d'Andromède en proie à quelques difficultés de financement après le départ de Dassault Systèmes.
Dossier : Gestion des applications, la chasse au gaspillage
Il y a trop d'applications obsolètes ou non utilisées dans les entreprises, c'est le constat que nous avons relevé en réalisant notre enquête. Un constat confirmé par une étude réalisée par la SSII Capgemini. Ce phénomène est d'autant plus inquiétant que le service informatique n'a pas les moyens de contrôler son portefeuille applicatif faute d'outils déployés. Il fait aussi face à un manque de communication de la part des métiers en entreprise qui installe des applications sans en informer le service. Cette dérive coute cher dans le budget IT car les services maintiennent malgré tout ces applications qui sont souvent associées à des données et qu'il est difficile de récupérer après l'obsolescence de l'application. Pour endiguer ce phénomène, les fournisseurs et leurs partenaires SSII proposent des solutions logicielles pour cartographier et urbaniser le parc applicatif. D'autres vont plus loin et recommandent une refonte du système d'information en intégrant des outils de plus en plus prisés dans l'entreprise autour de la mobilité et le cloud computing. (...)
(05/01/2012 12:39:50)Intel préconise d'augmenter la température des datacenters
Intel conseille à ses clients d'augmenter la température dans leurs centres de calcul. Le fondeur californien affirme que les entreprises peuvent économiser ainsi 4% en dépense énergétique pour chaque degré supplémentaire. Actuellement, en Europe, la plupart des centres de calcul sont maintenus à des températures comprises entre 19 et 21 °C, afin d'éviter les points chauds qui pourraient causer un dysfonctionnement du matériel. Selon Intel, l'équipement nécessaire au refroidissement des datacenters pour maintenir cette température coûte environ 27 milliards de dollars par an et consomme 1,5 % de l'énergie mondiale totale.
Pour réduire leurs coûts et leur empreinte carbone, beaucoup d'entreprises cherchent désormais à élever la température de leurs centres de calcul jusqu'à 27 °C. Facebook, par exemple, a économisé 229 000 dollars par an en coûts énergétiques après avoir remonté la température de ses centres à 27,2 °C. Et Microsoft a réduit ses coûts énergétiques de 250 000 dollars par an après avoir augmenté la température de ses centres de seulement 2 à 4 °C. « Le fait d'augmenter la température permet de moins refroidir les espaces. Nous n'avons pas non plus besoin de construire de centrales électriques supplémentaires, » a déclaré Richard George, directeur des services cloud chez Intel, dans une interview accordée à Techworld. « Cette méthode peut nous permettre d'économiser 2,4 milliards de dollars en électricité par an. C'est énorme, si l'on considère ce gain au niveau mondial. »
Tous les autres composants doivent participer à la réduction
Cependant, Mark Peters, analyste chez Enterprise Strategy Group, un cabinet basé au Massachusetts, a fait remarquer à Bloomberg que, pour décider de faire tourner les machines à des températures plus élevées, il faudrait un engagement de tous les vendeurs de composants, et pas seulement d'Intel. « Peut-être que d'autres fondeurs qu'Intel ont conçu leurs processeurs pour qu'ils supportent des températures plus élevées sans risque d'échec supplémentaire, mais ce n'est pas encore le cas des composants historiques », a déclaré l'analyste.
Selon Richard George, quand on veut construire un centre de calcul efficace sur le plan énergétique, l'augmentation de la température n'est qu'un élément du problème. « Par exemple, le centre Computing Coop, que Yahoo a fait construire à Lockport, dans l'état de New York, affiche une efficience énergétique estimée (Power Usage Effectiveness - PUE) de 1,1. Ce qui donne une autre perspective. Le datacenter de Yahoo fonctionne sans aucun système de refroidissement, et il aura besoin d'eau seulement quelques jours par an pour abaisser la température. « Il faut prendre en compte toutes les consommations d'énergie, et pas seulement celle du processeur, mais celle de tous les autres composants qui sont utilisés dans un centre de calcul. À mesure que nous rendons ces éléments plus efficaces sur le plan énergétique, nous aurons beaucoup moins de chaleur et nous pourrons beaucoup plus réduire la consommation d'énergie, » a t-il déclaré.
Des bâtiments plus économes
Intel a fait énormément d'effort pour rendre ses bâtiments plus efficaces énergiquement. Le fondeur dispose actuellement en Israël de l'un des centres les plus efficaces au monde. L'entreprise utilise la chaleur excédentaire du datacenter pour chauffer les douches, et la condensation générée par le système de climatisation sert à arroser les plantes.
L'an dernier, Ie fondeur a également annoncé qu'il était en train d'ajouter de nouveaux capteurs sur ses puces serveur pour aider les entreprises à améliorer l'efficacité des systèmes de refroidissement dans les centres de calcul, aussi bien pour réduire les coûts d'exploitation que pour prolonger la vie des équipements. Les données de ces capteurs pourront être traitées par les outils qui gèrent la ventilation et le refroidissement dans les centres de calcul. Ces capteurs permettront d'identifier plus facilement et plus précisément les points chauds et les points froids. Ils pourront aussi servir à effectuer des simulations pour savoir où et comment intégrer de façon optimale de nouveaux équipements informatiques pour bénéficier du meilleur flux de refroidissement possible.
(...)< Les 10 documents précédents | Les 10 documents suivants > |