Flux RSS

Infrastructure serveur

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

2924 documents trouvés, affichage des résultats 691 à 700.

< Les 10 documents précédentsLes 10 documents suivants >


(30/12/2010 14:07:24)

Les dix prédictions d'IDC pour 2011 sur fond d'expansion numérique

Comme à chaque fin d'année, IDC consulte l'ensemble de ses équipes d'analystes réparties dans le monde pour déterminer les 10 tendances majeures pour 2011. Le cabinet d'études se livre au jeu des prédictions pour les mois suivants et se penche sur les technologies dont l'adoption va se confirmer ou s'ébaucher. Au cours des prochaines semaines, il va détailler chacune d'elles en déclinant des scénarios appliqués à différents segments de marché.

1 - En premier lieu, la croissance des dépenses IT mondiales pourrait approcher les 5,7%. Modérée sur les logiciels et services, elle bénéficiera d'un rebond sur les services.

2 - Cette croissance devra beaucoup aux marchés émergents, Chine en tête, qui y contribueront pour plus de la moitié. Dans ces régions, le taux de progression sera 2,6 fois plus élevé que les marchés développés.

3 - L'adoption du cloud va passer à la vitesse supérieure en intensifiant l'alternative privé/public. Dans le même temps, l'expression « cloud computing » va passer de mode.

4 - Les datacenters vont continuer leur transformation, tirée vers le cloud : intégration de ses différentes composantes (stacks), logiciels d'entreprise prêts pour le cloud, et une attention particulière portée aux fournisseurs de services qui deviennent des clients stratégiques.

5 - Comme chacun s'y attend, l'explosion de la mobilité va se poursuivre : énormes volumes de terminaux, nouveaux formats et « millions » d'applications mobiles (oui, des millions, insiste IDC).

Un univers numérique en expansion : 10^12 gigaoctets

6 - Les réseaux haut-débit vont devoir lutter et innover pour tenir la route face aux réseaux sans fil 4G/LTE qui commencent à se propager. Toutefois, les échanges Ethernet (utilisés en particulier pour les systèmes de stockage) vont modérer la rétraction subie par le haut-débit filaire. Les réseaux de diffusion de contenus (CDN) vont de leur côté prendre du poids.

7 - IDC voit par ailleurs 2011 comme une année de consolidation et de convergence pour les acteurs des logiciels liés aux réseaux sociaux. Pour le cabinet d'études, l'année qui vient verra une forte augmentation du réseautage social dans les PME.

8 - L'univers numérique en expansion (il atteindra 1 800 milliards de gigaoctets -10 puissance 12 Go) va accentuer la demande pour récupérer facilement les informations en ligne et pour l'analyse en temps réel de ces 'Big Data', gigantesques volumes de données.

9 - Les industries que le monde anglo-saxon qualifie d'intelligentes (parce qu'elles introduisent les traitements informatiques au coeur des véhicules ou des bâtiments) vont mettre la mobilité et les réseaux sociaux à l'oeuvre pour profiter de la ruée vers les achats mobiles de loisirs. IDC pense que ce secteur va se mettre en ordre de marche pour faire face à l'augmentation des paiements mobiles et se préparer à la prochaine génération de services de santé.

10 - Les industries de l'IT, des télécommunications et des médias vont prendre position pour répondre à la demande du grand public pour les TV web. IDC s'attend à une bataille entre fournisseurs spécialisés sur les médias et les loisirs pour s'imposer comme l'opérateur virtuel de référence. Enfin, le cabinet d'études prévoit une très forte augmentation de la publicité sur mobile.

Illustration : Le datacenter de HP à Houston (Texas). Crédit photo : D.R.

(...)

(28/12/2010 11:41:05)

Bilan supercomputers 2010 : En route vers l'exaflopique

L'année 2010 a été marquée par l'arrivée d'un supercalculateur chinois, le Tianhe-1A, à la tête du fameux classement mondial Top500. Avec une puissance de calcul de 2,57 petaflops/s, ce dernier a en effet ravi la première place du podium au Cray Jaguar XT5-HE du Département américain de l'Énergie. Un autre système chinois, le Nebulae installé au National Supercomputing Centre de Shenzhen,  occupe même la troisième place avec 1,27 petaflops/s. Un supercomputer japonais, Tsubame 2.0, tient désormais la quatrième place avec 1,19 petaflops/s. Avec le concours de Bull, le CEA a mis en service son Tera100, d'une puissance de 1,05 petaflops/s, qui se classe sixième pour l'instant.

Chasse gardée des américains,  ce classement est aujourd'hui bouleversé par l'arrivée des très ambitieux programmes chinois. Si IBM n'a pas totalement renoncé à reprendre la main sur ce classement - le projet SuperMUC  en Bavière annonce 3 pétaflops - il a également décidé de porter ses efforts sur le Green500. Une catégorie où le rapport puissance/consommation est pris en compte. Pour mesurer le rapport performance/consommation qui sera affiché dans le classement, les administrateurs des sites doivent exécuter un ensemble de tests conformes aux spécifications Energy Star. Et à ce petit jeu, les supercalculateurs les plus puissants ne font pas nécessairement le meilleur usage de l'énergie consommée.

Dernière tendance pour l'année 2010, le développement de supercalculateurs exaflopiques. Aujourd'hui, les systèmes les plus puissants atteignent le pétaflops, ce qui signifie qu'ils sont capables d'effectuer un million de milliards d'opérations en virgule flottante par seconde. Un système exaflopique quant à lui se mesure en exaflops, soit 1 milliard de milliards d'opérations en virgule flottante par seconde. Les États-Unis, la Chine, l'Europe et le Japon travaillent tous sur des plates-formes informatiques exascales même si les premiers systèmes ne sont pas attendus avant 2018.

Les articles publiés en 2010 sur le sujet :

- Le 14 décembre 2010 : IBM va construire un supercalculateur de 3 pétaflops en Bavière

- Le 10 décembre 2010 : BullWay 2013 : Sur le HPC, Bull devra compter avec la Chine

- Le 2 décembre 2010 : La technologie des puces CMOS photoniques rapproche IBM de l'exaflopique

- Le 30 novembre 2010 : Dezineforce : le supercalculateur mis en boite

- Le 26 novembre 2010 : Supercalculateurs exaflopiques : Pas avant 2018

- Le 25 novembre 2010 : Dassault Aviation se dote de supercalcultateurs Bull

- Le 22 novembre 2010: IBM en tête du Green500

- Le 16 novembre 2010 : Un supercalculateur chinois a pris la tête du Top500

- Le 28 octobre 2010 : Un supercalculateur chinois revendique une puissance de 2,5 pétaflops

(...)

(27/12/2010 17:26:06)

Bilan Oracle-Sun 2010: Adoptions et abandons

En janvier 2010, Oracle obtient enfin l'autorisation de racheter Sun ainsi qu'il en avait manifesté l'intention en avril 2009. Entre ces deux dates, les autorités de régulation, tant aux Etats-Unis qu'en Europe, ont mené l'enquête afin de s'assurer que cette absorption ne risquait pas d'entraîner un déséquilibre concurrentiel, en particulier sur le marché des bases de données (avec le passage de MySQL chez Oracle). Au fil des mois, de nombreux défenseurs de l'Open Source s'étaient également inquiétés des incertitudes que ce rachat faisait peser, non seulement sur l'avenir de MySQL, mais aussi sur celui d'OpenSolaris et sur les évolutions du langage de programmation Java.

Désormais, la balle est dans le camp d'Oracle. Trêve de spéculations, la société de Larry Ellison va maintenant être jugée sur pièces. Son PDG fondateur a affirmé qu'il voulait être, comme IBM le fut dans les années soixante, un acteur global proposant une offre complète étroitement combinée, allant de l'infrastructure matérielle jusqu'aux applications. Il n'a jamais fait mystère qu'il convoitait Sun principalement pour Java et pour le système d'exploitation Solaris. En revanche, des questions se posent encore, notamment autour des processeurs Sparc. Dès février, Oracle annonce qu'il prépare une machine virtuelle Java unique. Il prévoit de fusionner son JRockit avec HotSpot, de Sun.

Jonathan Schwartz quitte le navire, d'autres suivent

Mais quelques jours à peine après le feu vert du rachat, le PDG de Sun, Jonathan Schwartz, annonce son départ de la société. Et, très vite, d'autres lui emboitent le pas. En mars, ce sera au tour de Simon Phipps, patron de l'Open Source de Sun, puis de Tim Bray, co-inventeur du langage XML, et de Martin Mickos, responsable de MySQL. En avril, James Gosling, le créateur de Java, quitte  lui aussi l'entité Oracle/Sun.

Quelques jours plus tard, ce sont les utilisateurs d'OpenSolaris, version communautaire du système d'exploitation développé par Sun, qui se font entendre. Oracle a pris du retard pour livrer la dernière version de l'OS (prévue en mars) et il reste bien silencieux à ce sujet. Certains membres du conseil de gouvernance d'OpenSolaris (l'OGB) se disent prêts à dissocier leur code source de celui d'Oracle. Les relations vont progressivement se dégrader entre les deux parties. En juillet, l'OGB envoie un ultimatum à l'éditeur. En août, ce dernier laisse entendre qu'il privilégiera la version commerciale de l'OS, ce qui entraîne la dissolution de l'OGB. Mais la fin annoncée d'OpenSolaris a suscité des projets dérivés, Illumos par exemple.

Des feuilles de route sur 5 ans pour Sparc et Solaris

S'il contrarie les partisans d'OpenSolaris, à l'inverse, Oracle rassure les utilisateurs des serveurs à base de processeurs Sparc. Il esquisse pour ces derniers et pour le système d'exploitation Solaris une feuille de route sur cinq ans, annonçant un Solaris 11 Express pour les développeurs d'ici la fin de l'année et Solaris 11 pour 2011. [[page]]La version Solaris 10 9/10 sort cet été.  John Fowler, patron de l'activité matérielle, précise par ailleurs que les lignes de serveurs x86 équipés de processeurs AMD seront arrêtées et les gammes standardisées sur les puces Intel.

Parallèlement, le groupe de Larry Ellison prépare sa grande conférence annuelle, OpenWorld, qui doit avoir lieu fin septembre à San Francisco. Il y annoncera des serveurs équipés du processeur Sparc T3 qui intègre jusqu'à 16 coeurs, une puce que l'on avait craint de voir abandonnée après le rachat de Sun.
Dans le cadre d'OpenWorld se tient aussi JavaOne, le rassemblement des développeurs Java. Cette année, Google, grand habitué du rendez-vous, n'y participera pas car Oracle vient de porter plainte contre lui. Il l'accuse d'avoir enfreint certains copyrights liés à Java lors du développement de son OS mobile Android.

Le support de MySQL démarre à 2 000 dollars

Sur JavaOne, l'acquéreur de Sun indique que les versions 7 et 8 de l'OpenJDK, le kit de développement Java, sont programmées pour 2011 et 2012. Il prévoit alors qu'elles continueront à se baser sur la version libre du langage de programmation, la communauté participant aux décisions sur les fonctionnalités à inclure à ces JDK 7 et 8. Deux mois et demi plus tard, les spécifications officielles de ces deux évolutions sont approuvées par le comité exécutif du JCP (Java Comity Process), malgré les oppositions de Google et d'Apache.

Début novembre, Oracle relève sensiblement le tarif du support de la base de données Open Source MySQL. L'abonnement à 599 dollars, que Sun pratiquait encore un an plus tôt, n'apparaît plus dans la tarification. Le support de l'éditeur démarre désormais à 2 000 dollars avec la Standard Edition. Pour débourser moins, il faudra se tourner vers des offres de services alternatives comme celles que proposent SkySQL ou Monty Program.

Mi- novembre, comme il l'avait annoncé, Oracle livre Solaris 11 Express, version du système d'exploitation destinée aux développeurs. Il présente également un aperçu de Solaris 11 qui sera livré en 2011.

En décembre, le repreneur de Sun annonce le Sparc Supercluster, une infrastructure serveur haute performance en cluster pour base de données. Cette configuration vient directement concurrencer les offres d'IBM et HP. Quelques jours plus tard, Oracle indique qu'il va porter sa distribution Enterprise Linux sur les environnements Sparc.

Un an après l'acquisition de Sun Microsystems, Oracle semble donc bien s'être engagé dans la direction annoncée par Larry Ellison (lorsqu'il se voyait en digne héritier de l'IBM de Thomas Watson) et vouloir devenir un constructeur à part entière. L'avenir nous dira s'il y parvient. Les ventes de serveurs des prochains mois fourniront un indicateur de la confiance que les entreprises accordent à la marque Oracle.

(...)

(27/12/2010 15:05:05)

Cloud : La suite BPOS de Microsoft laisse filer des données

Mercredi dernier, Microsoft a fait savoir que des données contenues dans sa suite Business Productivity Online Suite (BPOS) avaient été téléchargées par des utilisateurs non autorisés. Cette affaire pourrait faire date, et marquer le premier grand événement relatif à la violation de données dans un cloud. Selon certains, à l'avenir, ces fuites accidentelles risquent fort de se multiplier. Jusqu'à devenir banales. Et d'espérer pour chacun de ne pas en être une victime.

On pourrait, par réflexe, blâmer d'office les pirates. Mais ce n'est pas ce qui s'est passé cette fois-ci. La fuite a résulté d'un « problème de configuration » non détaillé survenu dans les datacenters de Microsoft aux États-Unis, en Europe et en Asie. Le carnet d'adresses Offline de la suite BPOS, qui contient les informations de contact professionnel, a été rendu accessible à des utilisateurs non autorisés dans des «circonstances très particulières, » selon Clint Patterson, chargé par Microsoft de présenter des excuses au nom de l'entreprise. Le problème a été résolu deux heures après avoir été découvert, ce qui ne permet pas de dire pendant combien de temps l'accès à ces données était ouvert. Par chance pour Microsoft, l'entreprise, qui réalise le traçage des données, a pu contacter ceux qui avaient téléchargé ces éléments par erreur pour faire un peu de nettoyage.

Trois risques de fuite

À n'en pas douter, l'affaire aura un impact certain chez ceux qui envisageaient d'adopter le Cloud dans l'année à venir, en particulier ceux qui regardaient du côté d'Office 365, l'offre cloud majeure de Microsoft en liaison avec sa suite bureautique Office.

Globalement, trois évènements peuvent menacer les données de n'importe quel fournisseur Cloud : une mauvaise configuration ou des bugs dans le logiciel de service cloud ; le vol de données par des pirates, pour le plaisir ou pour le profit ; des employés négligents avec les données confidentielles. Ce troisième point n'est pas nouveau : les employés ayant accès aux données sensibles risquent toujours d'orienter accidentellement les datas vers des personnes non autorisées. C'est ce qui se passe dans les nombreux accidents de messagerie où une mauvaise pièce jointe est envoyée, ou quand des emails sont accidentellement transmis à d'autres destinataires.

Le cloud, une source de très grosses erreurs ?

La collaboration entre l'homme et l'ordinateur posera toujours quelques problèmes. À une différence près : le cloud computing offre la possibilité unique de faire de très grosses erreurs. Les nombreux services en ligne permettent de partager des données entre individus aussi facilement qu'avec la totalité de l'Internet. Le travail collaboratif est même une des raisons d'être des services cloud. On imagine donc facilement ce qui pourrait arriver : il est tard, un employé fatigué voudrait partager le document « Invitation à la fête de Noël » avec le monde entier, mais sélectionne accidentellement le document « Comptes trimestriels 2010 » de l'entreprise. Y a t-il des procédures pour éviter ce genre d'erreurs ? Est-ce vraiment la première fois que cela arrive ? Un client vous a déjà informé poliment d'une telle erreur ?

Les erreurs de configuration et les bugs ne sont pas des problèmes mineurs. En premier lieu, on peut espérer que les fournisseurs de services cloud effectuent des tests massifs avant de proposer leur produit. Ensuite, il est bien connu que les logiciels vendus par les éditeurs ne comportent jamais de bugs... Enfin, la menace liée au piratage représente sans doute la plus grande préoccupation. Les pirates sont parmi les individus les plus intelligents et les plus sournois de la planète. Rien ne les arrête. Même ceux qui n'ont pas ces qualités peuvent créer beaucoup de problèmes. Le fait d'avoir ses données sur ses propres serveurs, dans ses propres locaux, représentait une barrière physique contre le piratage. Un obstacle que certains hackers ont aussi surmonté. N'empêche que la conception de ces serveurs était en soi un élément de sécurité. Le cryptage n'est pas non plus la solution parfaite. Des données cryptées peuvent aussi être cassées. C'est le cas si le logiciel de cryptage présente lui-même des bogues.

Une éventualité très réaliste

Cela signifie que, si une entreprise met ses données dans un cloud, elle doit prendre en compte l'éventualité, très réaliste, que ces données puissent devenir publiques à un moment ou à un autre. La nature et l'importance de la fuite pourront varier. Mais, cela pourra arriver. C'est juste une question de date.  Il serait aussi intéressant d'aller rendre visite à Microsoft, à Google, et à d'autres pour voir s'ils consomment ce qu'ils vendent : est-ce que Google fait confiance à sa plate-forme Docs pour ses données d'entreprise hypersensibles ? On se pose la question et on se dit probablement que non. Il faudrait vérifier, mais la firme de Mountain View ne joue pas vraiment la carte de la transparence.

Des lois existent contre le vol de données, obligeant les entreprises à mettre en place des systèmes de sécurité appropriés. Mais quelle valeur accorder à ces protections une fois que les données sont sorties du cloud ? Et si ces données volées sont transformées en fichier Torrent, comme cela semble être la mode en ce moment, il n'y a absolument aucune chance de faire un nettoyage discret en demandant à ceux qui ont reçu ces données par erreur de les détruire ou de les restituer...

(...)

(24/12/2010 10:45:31)

Bilan datacenter 2010 : Consolidation et automatisation

L'informatique à la demande a remis au centre du débat les datacenters et notamment leur efficacité et leur architecture. Après une année de crise, les sociétés se sont penchées sur leur centre de coût et donc sur leur datacenter avec comme objectif la consolidation.

Le tout en un et le modulaire


Conscient de ce changement, les grands groupes IT se sont focalisés sur la création d'équipements qui sont capables de gérer l'ensemble des composantes d'un datacenter. EMC, Cisco et VMware ont ainsi présenté leur VBlock, assemblage d'élément serveur, réseau et stockage..  De son côté, HP propose son offre Blade System Matrix, qui reprend les mêmes caractéristiques. Oracle n'est pas en reste avec son produit Exalogic. Des intégrateurs et des opérateurs seront les prescripteurs de ces produits. Pour certains analystes, nous sommes dans une phase de guerre des stacks. Il n'en demeure pas moins que l'adoption de ce type d'équipements se fera progressivement et entre en compétition avec les sociétés qui disposent d'un savoir-faire sur chaque brique.

Opérateurs et constructeurs s'intéressent également au datacenter modulaire. HP a présenté son POD, Colt a suivi aussi sur ce modèle et une autre société I/O prévoit des datacenters modulaires autonomes. Enfin SGI prévoit un conteneur avec un refroidissement par l'air extérieur.

Green IT et automatisation


Un peu délaissé, la consommation énergétique des datacenters est de nouveau, un sujet d'importance pour les entreprises. Le développement de processeurs moins gourmands, d'une meilleure utilisation des serveurs, via la virtualisation ont permis de diminuer ce poste de coûts. Des organismes comme le Green Grid affinent leur métrique pour évaluer le PUE (Power Usage Effectivness) en intégrant de nouvelles mesures comme l'eau et le charbon. L'objectif est de trouver un standard pour calculer l'efficience énergétique des datacenters.

Un autre sujet préoccupe les responsables IT avec l'évolution de leur infrastructure, la répétition de certaines tâches et donc de la mise en place de solutions d'automatisation. Lors d'un entretien, Yves de Talhouet, PDG de HP France, nous indiquait « Sur le plan technologique, il est important d'avoir une infrastructure bien intégrée pour disposer de puissance machine, de stockage, de pouvoir reconfigurer des aspects réseaux. Il est nécessaire d'envelopper tout cela dans une couche logicielle, qui sert à automatiser la gestion de cette plateforme. » Beaucoup d'éditeurs et de constructeurs se sont donc lancés dans la création de logiciel d'automatisation, sur différents axes. Certains s'orientent vers les environnements de développement et de tests, d'autres s'inscrivent dans l'interopérabilité entre cloud privé et public. Il est probable que d'autres annonces interviennent sur ce sujet dans les prochains mois.

(...)

(23/12/2010 15:40:04)

Bilan Open Source 2010 : Un réalisme économique sur fond de tension

Le rapprochement de Sun avec Oracle a peut-être sonné le glas d'une certaine idée de l'Open Source. Il a surtout montré que ce modèle était entré dans une autre phase, celle de la monétisation et de la valorisation des différentes solutions. Cet effort passe par des hausses sensibles de tarifs de maintenance et de support ou par la suppression de développement sur certaines solutions, comme avec OpenSolaris par exemple. Cette tendance est inexorable nous avait laissé entendre James Whitehurst, PDG de Red Hat, « nous investissons des millions de dollars dans le développement des solutions Open Source, il est nécessaire à un moment de vivre de notre travail ». Ce dernier a présenté des résultats pour le 3ème trimestre en hausse de 58,5%.

La résistance se fait jour


Cette orientation « capitaliste » ne fait pas que des heureux, parmi les communautés de développeurs. Très récemment, la Fondation Apache a démissionné de la Java Community Process en conflit avec Oracle sur la politique de licence sur des spécifications de Java 7 et 8. Une autre démarche est la scission, comme cela a été le cas pour le projet Libre Office, qui a refusé la démarche d'Oracle sur la suite bureautique Open Source, Open Office et a décidé de lancer son propre fork. Ce fut également le cas pour Open Solaris, où des personnes ont lancé un projet dérivé Illumnos. La résistance peut aussi se traduire par des attaques judiciaires. Ainsi, la société TurboHercules qui fournit une émulation Open Source de mainframe a porté plainte auprès de la Commission européenne, pour dénoncer la position dominante d'IBM sur le marché des grands systèmes.

Un foisonnement d'innovations


Loin des différentes querelles, le monde de l'Open Source est toujours un vivier d'innovation. La plus symbolique a été Openstack, un projet de cloud ouvert porté par Rackspace et la NASA. Cette dernière met à disposition des briques technologiques auprès des développeurs pour pouvoir créer leur propre offre de cloud. En matière de développement, certains langages commencent à intéresser les grandes sociétés, c'est le cas de Ruby on Rail. Récemment Salesforce.com a racheté Heroku, spécialiste dans ce domaine. Les grands noms de l'IT tendent la main au monde Open Source, comme le fait Microsoft à travers sa fondation Codeplex rebaptisé Outercurve. Au final, le monde Open Source poursuit sa mutation avec des avancées et quelques heurts. 2011 sera une autre année.


Sur le même sujet :

L'ancien responsable de MySQL quitte le navire Sun/Oracle

La fin proche d'Open Solaris stimule les projets dérivés

Oracle sonne le glas d'Open Solaris

Apache claque la porte de la Java Community Process

OpenOffice.org se transforme en fondation et lance en Libre Office

TurboHercules attaque IBM pour pratiques déloyales

Rackspace et la NASA s'associent dans le cloud Open Source

SalesForce.com rachète Heroku et sa plateforme PaaS Ruby

La fondation Codeplex se rebaptise Outercurve

Les autres bilans 2010 de la Rédaction :

Bilan Emploi 2010 : Une reprise de l'emploi IT en demi-teinte

Bilan Tablettes 2010 : L'an 1 du phénomène

Bilan Datacenters 2010 : Consolidation et automatisation

Bilan Sécurité 2010 : Perfectionnement des attaques et concentration des acteurs

- Bilan Oracle-Sun 2010 : Adoptions et abandons

- Bilan Supercomputers 2010 : En route vers l'exaflopique (...)

(21/12/2010 14:43:23)

Plusieurs applications Oracle débarquent sur EC2 d'Amazon

Le passage à EC2 rend le logiciel PeopleSoft beaucoup plus accessible aux petites et moyennes entreprises. Il vient s'ajouter à un ensemble de déploiements entrepris récemment par Amazon pour faciliter l'adoption du Cloud par les petites entreprises. Par exemple, la semaine dernière, Amazon a annoncé la disponibilité d'un outil permettant l'importation des images de disque virtuel VMware existantes pour être exécutées ensuite dans le cloud. Pour l'instant, seul Windows Server 2008 SP2 est supporté, mais d'autres systèmes d'exploitation seront ajoutés progressivement. Les entreprises peuvent utiliser le service d'import soit comme sauvegarde d'urgence de leur infrastructure virtualisée, soit comme étape de transition vers le cloud pour limiter au maximum les difficultés et la reconfiguration.

Nul doute que l'entrée de PeopleSoft dans le cloud sera surveillée de près par Salesforce.com, qui domine actuellement le marché du CRM, un service qu'elle a toujours proposé en mode hébergé. Toutes les nouvelles offres de Cloud sont disponibles sous forme d'Images Machine Amazon (AMI) préconfigurées, et prêtes à l'emploi pour une activation immédiate, même si, à l'avenir, les clients pourront aussi créer des versions personnalisées des installations et les télécharger sur EC2. Le tarif de location horaire pour ces nouvelles images s'incrit dans la catégorie Grande instance (Large instance) de mémoire, et varie entre 50 centimes et 2 dollars en fonction des besoins du client. A noter que le compteur s'arrête lorsque les machines sont éteintes ou si leur activité est suspendue pendant la nuit. Les clients peuvent utiliser les licences Oracle pour les instances EC2 du logiciel, ce qui laisse effectivement aux administrateurs IT le choix de faire, pour le même prix, une installation sur site ou dans le cloud. Il n'est pas non plus nécessaire aux clients du service Oracle Support ou Amazon Premium Support d'acheter un support technique supplémentaire, puisque ces contrats leur permettent d'obtenir l'aide dont ils ont besoin.

Flexibilité et réduction des coûts


Les avantages de l'utilisation de PeopleSoft sur EC2 sont multiples. Par exemple, la mise en place d'une nouvelle installation est maintenant à la fois immédiate et gratuite, sans nécessiter l'achat de matériel ni même avoir des connaissances spécialisées. Une approche cloud sous-entend aussi que tout déploiement sera accessible de n'importe où dans le monde avec la garantie d'une grande fiabilité. Les coûts d'une maintenance future seront aussi considérablement réduits.

[[page]]

Toutefois, l'exécution d'applications CRM et ERP sur EC2 pose quelques questions, dans la mesure où ces applications sont habituellement installées sur les serveurs sur le site du client et que, généralement, les employés y accèdent en local. L'accès à des applications sur un réseau local est aussi beaucoup plus rapide que via un service cloud sur Internet. Cela dit, une instance de ces applications sur EC2 peut avoir un intérêt pour une entreprise très décentralisée, notamment dans le cas où la majorité de ses employés travaillent à partir de succursales ou depuis leur domicile.

Une conversion lente

Il a toujours été possible d'exécuter un logiciel PeopleSoft sur EC2, mais à titre seulement officieux, dans le cadre d'un projet « do-it-yourself » notamment. En effet, jusqu'à présent, Oracle ne recommandait l'utilisation d'EC2 que pour le développement et le test, même si Oracle Database Enterprise Linux, WebLogic, et divers d'outils de développement étaient officiellement disponibles pour cette plate-forme depuis quelques temps.

Aujourd'hui, la grande différence vient du fait qu'Oracle a certifié PeopleSoft pour une utilisation sur EC2, ouvrant ainsi l'accès à des options de support. Certes, Larry Ellison, le PDG d'Oracle, a toujours été sceptique vis à vis du cloud, le qualifiant même de phénomène de mode en 2008. Mais, cela n'a pas empêché son entreprise de commercialiser ses propres offres, comme l'Exalogic Elastic Cloud, ou même d'entreprendre un roadshow international pour vanter l'utilité du cloud computing. De même, la semaine dernière, Oracle a annoncé Cloud Office, une suite bureautique en ligne, similaire à Google Docs, mais payante.

(...)

(17/12/2010 16:23:42)

Prévisions 2011 sur le cloud (2ème partie)

Prévision  1 : Réduction des coûts et transparence tarifaire.

Si pour de nombreuses personnes, les avantages indéniables du cloud computing sont l'agilité et l'élasticité, la prestation à la demande permet aussi de proposer des prix attractifs en raison des économies d'échelle et de l'automatisation. D'autant plus que les prix des services sont publics et transparents.

La combinaison de cette évolution économique et la transparence des coûts se traduira en 2011 par une demande au sein des groupes IT  d'offrir le même niveau de clarté, et malheur au DSI qui prendra comme excuse « nous ne pouvons pas le mettre en place, car les coûts spécifiques ne sont pas identifiés » . Cette demande de transparence va certainement provoquer un malaise dans  certaines directions informatiques, mais elle constitue le fondement de la prochaine révolution en informatique, c'est-à-dire l'explosion des applications en termes de nombre et de types. Si on se réfère à la théorie économique, les applis sont les produits complémentaires de l'infrastructure et quand le prix est bon, la demande pour services est en forte augmentation. Comme le cloud implique une forte réduction de l'infrastructure, il faut s'attendre à une baisse similaire dans les applications.

Prévision 2 : Une plus grande confusion cloud public / privé.

Le débat actuel sur la meilleure voie en matière de cloud va se poursuivre et risque même de dériver. En effet, la pression va être de plus en plus forte sur les entreprises pour choisir une ou l'autre option. Ainsi, le gouvernement fédéral américain a annoncé qu'à partir de 2012, les organismes fédéraux doivent adopter des solutions cloud  « chaque fois qu'il s'agit d'un réseau fiable et sécurisé, répondant au rapport coût-efficacité. » Ce qui signifie que pour un DSI notamment américain, il vaut mieux être prêt en 2011. La phase de déploiement privilégiera pendant quelques temps les clouds privés.

Prévision  3: L'hybride, un rêve parfois difficile à atteindre.

On constate que les fournisseurs et les utilisateurs fondent de grands espoirs dans le cloud computing. Les deux se disent que l'avenir sera fondé sur l'intégration sans effort d'applications, de manière transparente, et que la migration sera automatique entre les ressources internes à l'entreprise  et les clouds externes.

Cependant, aucun prestataire de cloud, peu importe sa taille et ses compétences, ne peut vaincre certaines lois de la physique. La migration de charge de travail et (surtout) des données entre sites sont confrontées  au problème de la connectivité entre les entreprises et les fournisseurs de cloud public. De plus ce genre de migration doit s'appuyer des infrastructures informatiques complexes et des méthodes opérationnelles fiables, ce qui se traduit par des investissements et le renforcement des compétences. Il ne s'agit donc pas d'un projet trivial.

L'ensemble de ces défis  fait que dans certains cas, les projets de cloud hybride doivent être revus à la baisse et être moins ambitieux.  En 2011, la clé d'une stratégie hybride du cloud sera de positionner clairement les charges de travail en fonction du coût, des moyens mis en oeuvre et de l'interopérabilité.

[[page]]

Prévision  4: Former les développeurs

Les départements informatiques  qui vont déployer leurs premières applications en mode cloud, vont aussi s'apercevoir que l'agilité et l'élasticité ne se décrètent pas et  exigent des architectures d'applications spécifiques. Le développement des applications  doit prendre en compte les caractéristiques des infrastructures en intégrant certaines contraintes comme la redondance, l'arrêt et la suspension de session. La conception doit être élastique en accompagnant les montées en charge. Des fonctionnalités de modification de l'application à la volée  sans intervention humaine, peuvent être intégrées.

Ces évolutions vont demander une mise à niveau des compétences techniques des développeurs. Il faudra donc s'attendre dans les prochains à plusieurs articles sur les défis associés à ses compétences propres  au cloud computing.

Prévision  5: Change de mode de pensée.

Au cours de 2011, les responsables IT vont devoir faire face à 3 défis sur le plan opérationnel. Le premier correspond à la réingénierie des processus. Certaines pratiques d'exploitation en place dans la plupart des organisations restent manuelles et vont rentrer en conflit avec la vision libre-service du cloud. Certains groupes d'applications nécessiteront la disponibilité des ressources immédiates via des  fournisseurs de cloud public et les systèmes informatiques internes  devront s'adapter le plus rapidement.

Le deuxième défi pose la question de la gestion dynamique des applications au sein du cloud . Sur ce dernier, les applications sont des ressources supplémentaires qui peuvent être ouvertes ou arrêtées en fonction du temps de réponse, de la charge de travail, etc. Les décideurs informatiques  devront trouver une façon de mettre en oeuvre ces pratiques à travers des outils capables de gérer dynamiquement ces opérations. Cela implique aussi une renforcement des compétences, cité précédemment.

Le troisième défi est la prise en charge de l'évolutivité, notamment sur l'ensemble des applications que l'entreprise veut intégrer dans le cloud. La demande va exploser et les équipes opérationnelles doivent être en mesure  de dimensionner et d'anticiper les montées en charge de leurs infrastructures informatiques.

(...)

(17/12/2010 11:55:14)

Plus de RAM pour améliorer la virtualisation sur serveurs

L'étude réalisée par le fournisseur de systèmes d'administration cloud VKernel s'est intéressée à  2 500 environnements virtualisés concernant plus de 550 000 machines virtualisées, révèle que, en moyenne, les administrateurs allouent 70% de la RAM d'un serveur aux machines virtuelles (VM), laissant 30 % en réserve. Mais, une fois la mémoire saturée, il n'est plus possible d'installer de machine virtuelle sur ce serveur, quelle que soit la CPU ou la capacité de stockage restante. L'enquête en déduit que cela rend les serveurs inefficaces. L'étude, qui s'est limitée à des environnements comprenant au moins 50 machines virtuelles, indique que ses conclusions s'appliquent de la même manière à des configurations plus modestes de quelques serveurs physiques seulement. Elle établit par ailleurs le profil moyen d'une machine physique : celle-ci héberge 15,6 VM, elle est à double socket, avec des processeurs quatre coeurs, et dispose de 50 Go de mémoire et de 2 To d'espace de stockage.

Des composants haute densité toujours plus chers

Le manque de mémoire résulte essentiellement du coût que cela représente : en effet, en raison du nombre limité de connecteurs RAM, il faudrait des modules de densité beaucoup plus élevée (par centaines de Go) pour accroître la capacité d'une machine aux niveaux requis pour la virtualisation. Mais ces composants sont généralement très chers. Aussi, investir dans des coeurs de traitement plus rapides ou multiples, et moins coûteux est souvent considéré, à tort, comme le meilleur moyen pour augmenter la performance. Car la réduction de coût est le principal objectif de la virtualisation. Alors qu'auparavant, chaque système d'exploitation devait être associé à un ordinateur physique unique, la virtualisation permet de faire tourner simultanément plusieurs systèmes d'exploitation sur un seul ordinateur physique. Par exemple, une VM peut exécuter le serveur de messagerie d'une entreprise, tandis qu'une autre peut faire tourner son serveur web. Une autre encore peut fournir une passerelle VPN. L'administration de plusieurs machines virtuelles est également plus facile, comparée à une configuration similaire impliquant plusieurs machines physiques. Fait intéressant, l'étude remarque que dans des environnements où le nombre de machines physiques est moins élevé, celles-ci hébergent plus de machines virtuelles, ce qui fait dire que les administrateurs sont assez souples quant à la capacité disponible. Des environnements avec 24 hôtes physiques ou plus, hébergent en moyenne 11 machines virtuelles par machine physique, alors que ceux dont le nombre se situe à 10 machines physiques, et moins, hébergent jusqu'à 20 machines virtuelles, soit le double. En d'autres termes, les entreprises avec moins de serveurs ont tendance à exploiter au maximum leurs capacités.

Un marché toujours fluctuant

Certaines conclusions du rapport pourraient être obsolètes, dans la mesure où le prix de la mémoire physique (DRAM) a chuté récemment, ce qui favorise les environnements de virtualisation à haute performance. En novembre, DRAMeXchange, un spécialiste du marché de la mémoire, a constaté que l'amélioration des rendements résultants des nouvelles technologies, combinée à une baisse de la demande de la part des consommateurs, a fait fortement baisser le prix de la DRAM. Il note ainsi qu'un module de 2 Go de DDR3 dont le prix tournait autour de 46,50 dollars US en début d'année, peut être acheté pour seulement 20 dollars US aujourd'hui. La mémoire ECC utilisait sur les serveurs est toutefois 3 fois plus cher. En outre, un récent rapport fait par la Deutsche Bank sur cette industrie indique que les prix de la mémoire ne sont pas susceptibles d'augmenter à nouveau avant la seconde moitié de 2011. Celui-ci dit même que les prix risquent de descendre encore plus bas à court terme. Autrement dit, il n'y a jamais eu de meilleur moment pour investir et rendre son environnement de virtualisation plus performant. Mais il faut garder à l'esprit que le marché de la DRAM a toujours eu tendance à osciller comme un yo-yo. Les usines brûlent toujours quant les prix sont à la baisse. L'année prochaine, le contexte pourrait être différent et plus difficile.

Illustration : Barrette mémoire ECC Kingston, crédit D.R.

(...)

< Les 10 documents précédentsLes 10 documents suivants >