Flux RSS
Infrastructure serveur
2924 documents trouvés, affichage des résultats 721 à 730.
< Les 10 documents précédents | Les 10 documents suivants > |
(08/12/2010 16:27:31)
SGI propose un container refroidi par l'air extérieur
Parmi les trois modèles proposés par SGI, le plus petit mesure 2,50 mètres de long, assez grand cependant pour accueillir quatre racks de serveurs, pour un prix démarrant à 75 000 euros environ, équipement informatique non compris. Les clients peuvent aligner ensemble quatre modules pour une capacité de 16 racks. Le concept particulièrement modulaire est aussi très économe en énergie. « Notre objectif est de rendre l'achat de centres de calcul modulaires plus facile. Notre produit permet de commencer petit, tout en offrant un bon rapport d'évolutivité,» a déclaré Bill Mannel, vice-président du marketing produit chez SGI.
La méthode utilisée par l'Ice Cube Air, qui consiste à aspirer l'air extérieur pour refroidir les matériels est considérée comme la plus économe en énergie. Si le climat devient moins adapté, s'il fait trop chaud notamment pour récupérer de l'air frais, SGI propose d'installer en secours des systèmes de refroidissement par expansion ou par évaporation. Elle peut ajouter aussi le refroidissement traditionnel pour les clients qui le souhaitent. Mais SGI estime que la climatisation par récupération de l'air extérieur peut être mise en oeuvre quel que soit le climat, au moins pour une utilisation partielle. « Cette solution peut être utilisée partout, même si elle ne fonctionne pas tout le temps, et cela quel que soit le lieu où est installé le datacenter. C'est la raison pour laquelle nous proposons des systèmes de refroidissement annexes, » a déclaré le vice-président marketing. « Un Ice Cube Air refroidi à l'air frais affiche une PUE de 1,06, » a-t-il ajouté.
Flexibilité et réalisme
Les deux autres modèles proposés par SGI sont un Ice Cube Air de 6 mètres, assez grand pour contenir 10 racks, et un autre composé de deux modules de 6 mètres mis en sandwich. Tous les modèles, petit, moyen, grand, peuvent également être emboîtés entre eux pour former des groupes de 4. « Les trois modèle sont en vente dès maintenant, partout dans le monde, » a déclaré Bill Mannel. « Les conteneurs sont compatibles avec les équipements de n'importe quel fournisseur.» a t-il précisé. SGI peut pré-installer les racks ou ils peuvent être posés sur site par les clients eux-mêmes. Les racks sont tous capables de supporter une charge énergétique au maximum de 25 kW, suffisante pour la plupart des clients.
La commercialisation de datacenters conteneurisés a décollé progressivement depuis que Sun Microsystems a lancé sa BlackBox, il y a trois ans. Ces centres modulaires sont maintenant vendus par plusieurs fournisseurs, dont IBM, Dell, Colt et Hewlett-Packard, lequel a récemment créé un centre de production entièrement dédié à ce type de produit. Cette solution permet aux clients d'ajouter rapidement de la capacité de calcul supplémentaire, dans le cas par exemple où un projet d'agrandissement est retardé. Elle est également utilisée dans des endroits éloignés, par les militaires et autres. Comme SGI, de plus en plus de vendeurs s'éloignent de la version basée sur le conteneur standard. I/o Data Centers, l'un des derniers entrants sur le marché, a déclaré il y a quelques mois son intention de vendre des centres de calcul portatifs sur mesure. SGI recommande ses modèles refroidis à l'air extérieur pour tous les clients, sauf s'ils doivent les transporter sur de longues distances. Dans ce cas, le vendeur continue à préconiser les conteneurs standards, qu'il juge plus robustes.
Vente de serveurs en hausse mais IDC note un net recul des machines Unix
Dominant largement le marché, les serveurs x86 se sont écoulés à 533 000 unités pour un chiffre d'affaires de 2,2 Md$ lors du troisième trimestre de cette année. Les croissances de leurs ventes en valeur et en volume se sont ainsi respectivement établies à 11 et 26,5%. Le fait que la progression des revenus soit plus de deux fois supérieure à celle des volumes indique bien que les serveurs x86 ont évité de tomber dans la catégorie des commodités (marchandises sans grande valeur) comme ce fut la tendance lors des trimestres précédents. La hausse de leur prix de vente moyen est en effet un signe que les entreprises placent de plus en plus leurs applications critiques sur ces machines, au détriment des serveurs Unix. En conséquence, les systèmes non x86 ont continué de voir leurs revenus reculer au troisième trimestre 2010 (-22,5%) et atteindre 939,3 M$ pour 10 000 unités vendues (-17,5%). C'est la première fois depuis 1996, date à laquelle IDC a commencé à comptabiliser les ventes de serveurs, que le segment des systèmes non x86 passe sous la barre du milliard de dollars de revenus.
Le segment des serveurs lames surperforme le reste du marché
Analysé sous l'angle des facteurs de forme, les résultats des ventes de serveurs en EMEA montrent une superformance de la catégorie des serveurs lames (+22% à 63 M$) comparées au reste du marché. Paradoxalement, cette croissance est due à la forte hausse des ventes des blades non X86 dans le sillage des hausses à deux chiffres obtenues principalement par IBM et HP sur les segments des serveurs RISC et EPIC. Pour le quatrième trimestre 2010, IDC reste d'ailleurs confiant dans le fort potentiel de croissance des serveurs lames non X86.
Premier fabricant de serveurs dans le monde, HP l'est aussi en EMEA pour le 11ème trimestre consécutif. Il dispose d'une part de marché en valeur de 43,7% en hausse de trois points par rapport au troisième trimestre 2009. IBM perd quant à lui du terrain, touché par des ventes en recul de 2,6% qui ramènent sa part de marché en valeur à 28% (-2 points). Dell conforte de son côté sa troisième position en captant 11,5% des revenus du secteur grâce à un chiffre d'affaires en hausse de 29,7%. Le plus gros flop revient à Oracle et la gamme de serveurs issues de Sun. Le renouvellement et le repositionnement ne sont intervenus qu'en début de semaine. Le géant de Redwood a vu ses ventes décroître de 21%. Il se trouve à la quatrième place, devant Fujitsu, du Top 5 des fabricants de serveurs par revenus d'IDC avec une part de marche de 6,1%.
(...)(08/12/2010 10:55:43)
Dreamforce 2010 : Database.com, prochain service de Salesforce.com
Salesforce.com se lance dans la base de données accessible en ligne. Son futur service « à la demande » s'appelle Database.com et vient d'être présenté sur la conférence Dreamforce que l'éditeur tient cette semaine à San Francisco (6-9 décembre). Le service est en partie basé sur la base de données d'Oracle, longtemps utilisée par Salesforce.com. Mais il s'appuie aussi sur des dizaines d'autres technologies qui constituent l'infrastructure de cloud de Salesforce.com. Cette dernière supporte maintenant près de 87 000 clients dans le monde, rappelle Eric Stahl, directeur senior responsable du marketing produit.
Les développeurs pourront utiliser le nouveau service comme socle pour tout type d'application. Database.com sera accessible à travers ses API (interfaces de programmation) SOAP et Rest depuis n'importe quel langage, plateforme ou terminal. Il ne s'adressera donc pas seulement à ceux qui développent sur Force.com, mais conviendra aussi pour des applications exploitées sur le cloud EC2 d'Amazon ou sur d'autres services, grâce aux API qui appellent vers Database.com.
Avant l'annonce faite sur Dreamforce, hier, Eric Stahl a présenté des exemples, en particulier une application écrite en PHP (hypertext preprocessor) fonctionnant sur Amazon Web Services. Celle-ci faisait remonter des données sur Facebook et interrogeait une instance de Database.com pour récupérer des informations. Chaque instance de la base de données pourra être exploitée dans différents contextes, du site web à l'application mobile.
Des boîtes à outils pour Java, .Net, Ruby et PHP
Mais Salesforce.com compte aussi vendre son service aux entreprises avec des arguments bien rodés, tels que le chiffrement SSL, le SSO (single sign-on) et des fonctions de sécurité avancées. Sans oublier les arguments de base de l'éditeur : ses capacités d'évolution automatique, d'ajustement des ressources et de mise à jour régulière du système.
En complément, la société de Marc Benioff va ajouter des fonctions au-dessus de Database.com, notamment un « modèle de données sociales » prédéfini avec des notions de profils d'utilisateur, de mises à jour de statuts, de fils d'actualité et autres entités utilisées par les réseaux sociaux. En utilisant un jeu d'API adaptée à ces usages, les développeurs pourront créer des applications fonctionnant avec ce modèle.
Les clients disposeront aussi d'une console d'administration et d'outils d'ETL pour charger les données dans Database.com. L'éditeur fournira par ailleurs des boîtes à outils spécifiques pour différents langages (Java, .Net, Ruby et PHP), ainsi que pour les environnements mobiles iOS et Android, et les plateformes AppEngine de Google, Azure de Microsoft, Amazon Web Services ou encore pour Facebook et Twitter.
[[page]]
Il existera une version de base gratuite. Elle acceptera trois utilisateurs, 100 000 enregistrements et 50 000 transactions pour mois. Au-delà, le tarif mensuel s'élève à 10 dollars pour chaque tranche de 100 000 enregistrements et 10 dollars pour 150 000 transactions. En complément, pour 10 dollars par utilisateur de l'application et par mois, Enterprise Services ajoute une couche de sécurité et d'authentification.
Peu adapté aux gros volumes de transactions, selon Monash
La base de données de Salesforce.com utilise une architecture différente de celle des autres fournisseurs, considère Curt Monash, du cabinet Monash Research. « Il ne répartit pas les éléments entre des milliers de tables et se concentre sur la programmation des objets métiers. De ce fait, vous passez à côté de certains avantages, mais aussi de certaines complications typiques de la programmation relationnelle ».
En tenant compte du fait que les temps de latence du réseau est l'un des principaux facteurs de performance, Database.com ne conviendra probablement pas aux processus transactionnels exigeants, ajoute Curt Monash. « A l'inverse, lorsque vous bâtissez des applications pour lesquelles chaque utilisateur ne fait que quelques transactions par heure, cela importe sans doute assez peu, reconnaît le consultant. Il ne s'agit pas d'une architecture destinée à de gros volumes de transactions, mais la majorité des applications ne produisent pas de tels volumes ».
Comment les clients vont-ils percevoir cette évolution ?
Database.com est prévu pour 2011, mais on ne sait pas exactement à quel moment interviendra la disponibilité générale du service. Mais, comme pour ses autres produits, l'éditeur fournira d'abord une version bêta privée. Certains partenaires sont déjà sur les rangs pour soutenir le lancement. Parmi eux, Progress Software et Informatica proposent des produits pour aider les clients à alimenter les bases de données.
Pour China Martens, analyste du cabinet 451 Group, le nouveau service pourrait constituer une solide source de revenus pour Salesforce.com. De fait, l'éditeur se diversifie en proposant plusieurs offres, constate-t-elle. Mais cela reste difficile d'être à la fois un spécialiste du CRM (gestion de la relation client) et un fournisseur d'infrastructure. Elle se demande comment cette nouvelle évolution va être perçue par les clients. Certains d'entre eux pourraient préférer voir l'éditeur se concentrer davantage sur son offre de CRM.
Eric Stahl, responsable du marketing produit de Salesforce.com, affirme, lui, que les clients qui ont entendu parler de Database.com sont déjà impatients de l'essayer. (...)
Symantec : un bilan 2010 très orienté vers la protection de l'information
Symantec a dressé un bilan de l'année 2010, tant au niveau de l'entreprise que sur les enseignements des récentes attaques. Avant de rentrer dans les détails, le spécialiste de la sécurité est revenu sur la vie de la société. Elle se porte bien en affichant 6 milliards de dollars de chiffre d'affaires. Elle a réalisé plusieurs acquisitions, PGP, Guardian Edge et enfin Verisign. Pour Eric Soares, vice-président et general manager Europe de l'Ouest, ces mouvements s'inscrivent dans la stratégie de la société qui s'articule autour de deux priorités les personnes et les informations, en créant un espace de confiance. Ce dernier passe par 3 étapes : protection de l'infrastructure, la classification de l'information, définition des politiques de sécurité et leur contrôle. Un focus tout particulier a été souligné par Laurent Heslault, directeur des technologies de sécurité de l'éditeur. Il a ainsi cité un ancien PDG de Symantec « la donnée est la monnaie du 21 ème siècle ». Il a constaté des évolutions des fonctions des responsables de la sécurité au sein des entreprises, « aux Etats-Unis, on commence à voir apparaître des CISO, à côté des CSO, en France aussi le RSSI bascule vers le RSI ». La prise de conscience que l'information est importante au sein de l'entreprise est plus forte souligne le dirigeant, « nous sommes clairement dans un mode rustine, où les entreprises nous appelle pour nous demander d'intervenir sur la mise en place de solution de DLP, par exemple ».
Un avant et un après Stuxnet
Laurent Heslault a dressé les tendances de la sécurité pour l'année 2011, mais a insisté sur le virage que constitue la découverte de Stuxnet. « Il y a eu un avant et un après Stuxnet » précise le responsable et de « saluer » la complexité, le niveau de développement de ce ver « là où certains programmes malveillants pèse entre 2 et 10 ko, Stuxnet pèse 600 ko ». Cette menace évoluée touche principalement les infrastructures critiques reposant sur des systèmes Scada. Les réseaux d'eau, d'électricité, les lignes de fabrications pharmaceutiques par exemple se retrouvent exposés à ce genre d'attaques. Laurent Heslault confie « Stuxnet a eu au moins le mérite qu'un dialogue s'installe entre les responsables de la sécurité informatique et ceux en charge des infrastructures. Les systèmes Scada sont équipés de vieux systèmes d'exploitation, non patchés et donc très vulnérables ».
Autres inquiétudes, les failles « 0 Days » qui se multiplient et le business autour de ces vulnérabilités aussi. Selon Laurent Heslault « cela se vend très cher, plusieurs milliers de dollars ». La stéganographie (le fait de cacher des informations au sein d'un flux vidéo, image ou dans un site) est un sujet d'appréhension, car elle demande beaucoup de ressources pour les déchiffrer. Paradoxalement, le cloud n'est pas assimilable à un risque supplémentaire en matière de sécurité « cela apportera des choses positives si cela est bien construit » conclut l'expert de l'éditeur.
Illustration : Laurent Heslault, directeur des technologies de sécurité de l'éditeur
(...)(07/12/2010 16:08:57)Enterprise Linux d'Oracle porté sur la puce serveur Sparc
« Nous pensons clairement que Sparc sera le meilleur processeur pour faire tourner les logiciels d'Oracle. Si bien que nous serions stupides de ne pas faire évoluer Oracle Enterprise Linux en ce sens. Nous en sommes encore loin, mais cela va certainement finir par arriver » a-t-il déclaré.
Le PDG d'Oracle a même évoqué un délai « T4, T5 », se référant aux deux prochaines versions du processeur Sparc de Sun. La version T3 a été livrée en septembre dernier et la T4 n'est pas prévue avant un an environ. Les clients qui s'équipent aujourd'hui en serveurs x86 d'Oracle peuvent faire tourner à la fois Solaris et Oracle Enterprise Linux sur leurs machines. Mais Solaris est le seul OS supporté par les systèmes Sparc d'Oracle. « Certains clients ont fait tourner Linux sur Sparc, mais cela concerne surtout le marché de l'informatique de haute performance, mais cet environnement n'est pas pris en charge, » a déclaré Jean Bozman, analyste chez IDC. Cela met Oracle en difficulté par rapport à IBM et HP, dont les clients peuvent faire tourner à la fois Unix et Linux sur leurs serveurs haut de gamme. « HP et IBM sont capables d'offrir à leurs clients Linux et un Unix propriétaire sur le même matériel. Cela donne des possibilités supplémentaires à ceux qui travaillent dans des environnements virtuels,» a déclaré Nathan Brookwood, analyste chez Insight64. Les clients d'IBM par exemple peuvent s'équiper d'un simple système Power7 et y faire tourner Linux, AIX et le logiciel Système d'IBM sous un hyperviseur commun. « Dans le domaine des datacenters virtualisés, la possibilité d'exécuter les principaux systèmes d'exploitation et leurs environnements sur sa plate-forme matérielle principale offre aux utilisateurs un peu plus de flexibilité, » a déclaré Nathan Brookwood.
Une flexibilité et un support spécifique
Avant l'acquisition de Sun Linux était l'OS de prédilection d'Oracle. Aujourd'hui Larry Ellison désigne Solaris « comme le premier système d'exploitation de la planète. » Mais il sait que certains clients veulent avoir le choix et il voudrait bien que ce choix se fasse parmi les produits d'Oracle. « Nous voulons que les clients se pose uniquement la question de savoir s'ils choisissent Sparc ou x86, et s'ils doivent faire tourner Solaris ou Linux, et c'est tout, » a déclaré le PDG d'Oracle. « Nous ne voulons pas qu'ils se demandent s'ils doivent passer de Sparc à Power ou de Solaris à Aix. Nous voulons leur donner le choix au sein de notre propre famille de produits. »
Larry Ellison a également annoncé une nouvelle catégorie de support, appelé Gold Standard Services, pour les clients prêts à faire tourner leurs systèmes Oracle sur une configuration suggérée par l'éditeur. « Pour les configurations Gold, la société testera chaque mise à jour logicielle et correctif important dans ses laboratoires, » a déclaré le dirigeant. « Cela devrait permettre de garantir des niveaux plus élevés de disponibilité pour ces clients, » a-t-il ajouté. Les premières « configurations Gold » seront réservées aux grands systèmes intégrés qu'Oracle a récemment annoncé : l'Exadata Database Machine, l'Exalogic Elastic Cloud et le Supercluster Sparc. Elles devraient également inclure des produits partenaires. « Nous allons demander à IBM, Dell et Cisco de se joindre à nous pour créer ces configurations Gold Standard,» a indiqué Larry Ellison. Ce dernier n'a donné aucune information de tarifs et Oracle n'a fourni pour l'instant aucun détail supplémentaire à ce sujet.
Nimbula Director, pour créer un cloud privé similaire à Amazon EC2
Nimbula, une start-up fondée par un développeur de l'Elastic Compute Cloud d'Amazon, Chris Pinkham, offre en téléchargement gratuit la version bêta de son logiciel pour créer des clouds de type Amazon protégés par le pare-feu de son entreprise. Nimbula Director permet de configurer automatiquement l'infrastructure matérielle d'un datacenter privé pour en faire une infrastructure de cloud se comportant à la manière d'un Amazon EC2. Grâce à sa capacité à s'intégrer à plusieurs hyperviseurs et systèmes d'exploitation, il permet aux développeurs et autres utilisateurs d'accéder à des machines virtuelles de serveurs et de stockage. Le logiciel gère également l'accès aux ressources d'un cloud public, offrant aux clients la possibilité d'adopter une approche hybride.
« Basé sur la technologie de 'Cloud Operating System' de Nimbula, le logiciel Nimbula Director fournit des services semblables à un Amazon EC2 à l'abri du pare-feu », explique la start-up dans un communiqué. Selon elle, Nimbula Director permet aux clients de gérer aussi bien les ressources sur site que celles situées hors site. La solution transformerait rapidement, et sans coût excessif, les datacenters privés, souvent figés, inefficaces et sous-employés, en une capacité de calcul facilement configurable, offrant aussi un accès contrôlés à des clouds hors site. Le logiciel gère les autorisations conformément à la politique de l'entreprise, ce qui permet la mise en place d'une architecture multitenant sécurisée bénéficiant d'une allocation dynamique des ressources de stockage. Nimbula Director permettrait également de réaliser des déploiements hautement automatisés et faciliterait la migration des applications existantes dans le cloud grâce à une compatibilité multiplate-forme. Il permet aussi de configurer la mise en réseau et le stockage de manière très flexible, indique encore le communiqué de l'éditeur.
Une dizaine de clients ont mis en oeuvre la bêta
C'est en 2008 que Chris Pinkham a créé Nimbula, avec Willem van Biljon, un ancien collègue d'Amazon. Auparavant, entre 2001 et 2006, c'est lui qui avait dirigé le développement du service EC2 d'Amazon. Récemment nommée par Network World comme l'une des 25 entreprises IT à surveiller, la start-up Nimbula est un peu sortie de sa confidentialité en juin de cette année. L'entreprise, qui compte Diane Greene, co-fondateur et ancien CEO de VMware, parmi les membres de son conseil d'administration, affiche à son actif « plusieurs grands clients internationaux dont les activités se situent dans les services financiers, la technologie et les industries de la santé ». Ils ont mis en oeuvre une version bêta privée de son logiciel. Cette version n'avait été confiée qu'à une dizaine de clients environ « afin de permettre une collaboration plus étroite avec les utilisateurs », comme l'a expliqué le vice-président du marketing Reza Malekzadeh, ancien dirigeant de VMware jusqu'en 2009 qui a rejoint Nimbula en avril 2010.
Nimbula Director est un peu en retard sur le planning puisque, lors de son lancement, la société avait indiqué que le produit serait disponible à l'automne 2010. D'abord reporté à la fin 2010, l'éditeur annonce aujourd'hui une sortie générale pour la première moitié de 2011. En attendant, la version bêta publique est disponible gratuitement en téléchargement sur le site Web de l'éditeur.
Illustration : Chris Pinkham, PDG et co-fondateur de Nimbula (crédit photo : Nimbula)
(...)
L'ebookstore de Google entre en piste
"Grâce à ce service, les lecteurs peuvent découvrir et acheter des livres soit directement depuis l'eBookstore Google, soit via l'un des libraires indépendants, partenaire de Google. Quel que soit le moyen utilisé pour acheter les livres, ils sont tous stockés dans la bibliothèque en ligne du lecteur", précise le communiqué. Avec cette plateforme de vente de livres numériques, Google vient ainsi concurrencer la bibliothèque Kindle d'Amazon.
Ce service permet aux internautes d'acheter des livres auprès de la librairie de Google ainsi qu'à d'autres vendeurs en ligne. Les ouvrages seraient alors accessibles sur de nombreux supports informatiques comme les ordinateurs, les tablettes ou les téléphones. L'éditeur indique avoir numérisé plus de 15 millions de livres. Le projet de la firme de Mountain View est encore confronté à des obstacles juridiques dans les autres pays.
(...)(06/12/2010 16:10:06)
Amazon Web Services lance Route 53 DNS
Progressivement, Amazon Web Services étoffe son offre cloud. Aujourd'hui, l'éditeur lance Route 53 en version bêta (en référence au port 53, attribué en général au DNS), une offre de serveur DNS disponible sur EC2, mais aussi sur S3 (capacité de stockage) d'Amazon. Ce mode hébergé est facturé à l'utilisation, en fonction du nombre de requêtes DNS traitées. Mais AWS annonce un package pour cette version bêta, 1 dollars par mois plus 0,50 dollars par million de requêtes, après le premier milliard de demandes. Le service Route 53 reprend les mêmes attributs qu'un serveur DNS traditionnel avec la création d'une zone hébergée, capable de gérer aussi bien les adresses IP V4 et V6.
Cette annonce intervient quelques jours après la décision d'Amazon de suspendre le site Wikileaks de son cloud EC2. Mauvaise publicité pour Route 53 ou gestion hasardeuse du marketing, il est probable que le site d'informations sensibles aurait souscrit à ce service.
(...)< Les 10 documents précédents | Les 10 documents suivants > |