Flux RSS
Infrastructure serveur
2924 documents trouvés, affichage des résultats 581 à 590.
< Les 10 documents précédents | Les 10 documents suivants > |
(15/03/2011 11:08:50)
2011, une année très PaaS selon Gartner
Dix jours après Markess, qui s'intéressait à la fois à l'Iaas et au Paas, le Gartner publie une étude sur le seul Paas (Platform as a service). Comme souvent, le cabinet américain fait dans l'euphorie. « Fin 2011, la bataille pour le leadership du Paas, aura englouti l'industrie du logiciel » explique Yefim Natis, vice-président au Gartner. Cet analyste prédit également un début de consolidation de l'offre Paas. Les utilisateurs devant s'attendre à une vague d'innovation et de battage sur le sujet.
Le Paas, rappelle le Gartner, concerne la couche d'architecture qui contient tous les services d'application (le « middleware »). C'est la couche moyenne, une technologie intermédiaire entre l'infrastructure du système sous-jacent (systèmes d'exploitation réseaux, virtualisation, stockage ...) et les logiciels d'application.
Au cours des trois prochaines années, la variété de l'offre en PaaS permettra de consolider quelques grandes suites d'applications d'infrastructure de services. Dans les cinq prochaines années, l'adoption du Paas ne conduira pas à une transition directe vers le cloud, mais à la coexistence, l'interopérabilité, l'intégration entre plusieurs modèles, souligne également le Gartner.
Des modèles et des normes à créer
« L'ère du cloud computing ne fait que commencer, et les modèles en vigueur, les normes et les meilleures pratiques du génie logiciel pour le cloud n'ont pas encore été établis. C'est une opportunité pour les fournisseurs de nouveaux logiciels pour bâtir une présence de premier plan dans les solutions logicielles du marché, » a déclaré Yefim Natis. « C'est également un défi technique majeur pour les fournisseurs de logiciels établis : conserver leur leadership tout en se projetant dans le nouvel espace sans nuire à leurs acquis durement gagnés dans le marché de l'informatique sur site. »
Pour leur part, les utilisateurs seront précipités dans le cloud computing (avec des services d'application commerciale de type SaaS) et des services de plate-forme avancée (par exemple, PaaS) atteignant des niveaux acceptables de maturité et offrant de nouvelles fonctionnalités innovantes.
Cisco se dote d'un Cloud Partner Program
Le cloud appelle une démarche différente vis-à-vis des partenaires, c'est la raison d'être du Cloud partner program. Il sera lancé, partout dans le monde, aux mois de mai-juin-juillet, qui correspondant au 4ème trimestre fiscal Cisco. Mais tout en étant différent il repose sur le pilier de la politique Cisco : le tout indirect. Visiblement, il est nécessaire de réaffirmer ce point qui distingue Cisco en matière de cloud : « CPP correspond à la fois à un phénomène de marché important, qu'il faut savoir prendre en compte et à l'affirmation par Cisco de sa stratégie indirecte, surtout en matière de cloud », note Bruno Dutriaux, expert datacenter et virtualisation. « Nous sommes un acteur important du cloud et, pour nous, l'accès à ce marché ne peut se faire qu'avec nos partenaires ».
Ce Cloud partner program comprend trois éléments : builder, provider, services reseller. Il s'agit de trois « branding », autrement dit de trois qualifications. « Builder » correspond aux partenaires qui sont aptes à créer une infrastructure de cloud, soit pour une entreprise soit pour un provider. La qualification valide leurs compétences, en particulier sur les sujets infrastructure, applications management et service professionnels de cloud. « Provider » s'adresse aux partenaires intervenant sur le marché sur des technologies Cisco et celle de son écosystème de partenaires technologiques mais avec au moins une technologie Cisco. « Services reseller «, enfin, concerne les partenaires agissant en marque blanche.
Un partenaire peut mobiliser une, deux ou trois de ces qualifications. D'autres programmes sont en cours d'élaboration pour accompagner CPP au plan financier. Un financement particulier est envisageable pour réaliser une infrastructure de cloud ou lancer des campagnes marketing communes. Des « collaborative services » sont également mobilisés pour faire évoluer les distributeurs.
Dans un horizon de 18 à 24 mois, l'ensemble des partenaires Cisco seront concernés par CPP.
Tsunami : les entreprises japonaises dressent un premier bilan
Toute la journée de samedi, Sony a fait transporter par hélicoptère des fournitures d'urgence à des centaines d'employés pris au piège dans une de ses usines situées dans la préfecture de Miyagi où sont fabriqués des disques Blu-ray. La vague dévastatrice avait frappé l'unité juste après que les 1 000 employés se soient réfugiés au deuxième étage du bâtiment, et ils ont dû y passer la nuit. Mis à part cette usine de Miyagi, qui, selon le constructeur est celle qui a subi les dommages les plus considérables, Sony a fermé cinq usines après le tremblement de terre. Selon George Boyd, un représentant de Sony, l'entreprise « n'a pas subi de dommages majeurs à l'exception de celle-ci (Miyagi). » Prudent, il a néanmoins ajouté qu'il était trop tôt pour juger de l'impact global du tremblement de terre. Certaines usines de Sony, dont une usine où sont fabriquées des batteries et une autre des processeurs, sont à l'arrêt en raison des restrictions d'électricité.
Des pénuries d'eau et d'électricité
Car la pénurie d'électricité résultant des dommages causés par le tsunami est l'un des plus grands problèmes auquel les entreprises doivent faire face aujourd'hui. Le gouvernement a déjà prévenu la population et les entreprises qu'elles devaient s'attendre à des coupures d'électricité régulières tant que la remise en route des centrales n'était pas effective. L'eau est l'autre préoccupation et les craintes d'une pénurie ont incité le gouvernement à demander à la population de préserver aussi bien l'eau que l'électricité. La Tokyo Electric Power Company (Tepco) chargée de fournir de l'électricité à la ville de Tokyo et à un certain nombre de régions situées à l'est de la capitale japonaise, a prévenu les habitants qu'ils devaient s'attendre à des pénuries d'électricité, le tremblement de terre et le tsunami ayant endommagé certaines centrales et d'autres ayant été arrêtées par sécurité. Le fournisseur d'électricité doit actuellement faire face à de graves problèmes dans deux centrales nucléaires situés dans la préfecture de Fukushima. Déjà, deux explosions provoquées par une réplique sismique ont affecté les réacteurs 1, 2 et 3 de la centrale nucléaire. Tepco a déclaré dans un communiqué qu'elle continuait à évaluer les dommages subis par son installation. Des informations locales indiquent que les réacteurs 1 et 3 sont sérieusement endommagés par le choc et que le 2 est au bord de la fusion. « À l'heure actuelle, nous vérifions l'état de chaque unité sur place et nous évaluons l'importance des matières radioactives rejetées dans l'atmosphère, » a indiqué l'entreprise d'électricité.
Peu d'impacts directs sur les usines de DRAM
Elpida Memory, fabricant japonais de DRAM, a dit que le séisme et le tsunami avaient eu peu d'impact sur ses activités du fait que ses usines se trouvaient loin de la secousse. La principale unité de fabrication de processeurs d'Elpida est située à Hiroshima, donc à l'ouest du Japon, alors que l'épicentre du séisme se trouve au nord-est. Le tremblement de terre « a eu très peu d'impact, nous n'avons subi aucun dommage et nos unités fonctionnement normalement, » a déclaré Kumi Higuchi, une représentante de Elpida. Celle-ci indique cependant qu'une de leurs usines à Akita Elpida, où sont effectués les tests, le conditionnement et l'expédition des processeurs, est affectée par des pannes d'électricité. Toutefois, l'entreprise ne croit pas que cela aura un impact sur ses activités parce que la majorité de ses produits est testée et expédiée depuis Taiwan.
[[page]]
SanDisk, en joint-venture avec Toshiba dans plusieurs usines de fabrication de processeurs au Japon, a déclaré que ses deux usines avaient été brièvement arrêtées vendredi suite au tremblement de terre, mais qu'elles étaient à nouveau opérationnelles le jour même. L'entreprise fait remarquer que ses usines se trouvent à 800 kms de l'épicentre et que « l'impact immédiat du tremblement de terre sur la production a été minime. » Toshiba, qui n'a pu être joint, est l'un des plus grands fournisseurs au monde de mémoire flash, et possède un nombre important d'usines de production de processeurs au Japon. Selon iFixit, qui a démonté l'iPad 2, la mémoire principale de stockage de la tablette d'Apple est un module 16 Go NAND Flash fabriquée par Toshiba.
40% de la mémoire flash NAND produite au Japon
Jim Handy, d'Objective Analysis, une entreprise qui fait de la recherche pour l'industrie, affirme que le Japon fournit 40 % de la mémoire flash NAND utilisée dans le monde. Selon lui, le tremblement de terre va provoquer « des fluctuations de prix phénoménales. Il craint même « de grandes pénuries à court terme. » L'analyste estime en effet « qu'il n'est pas nécessaire que la production baisse de manière importante pour faire monter les prix de façon spectaculaire. » Un autre composant électronique important, susceptible de subir les effets du tremblement de terre, est le LCD. Même s'il était encore responsable de plus de 6 % de l'approvisionnement mondial en LCD l'an dernier, le Japon n'est plus le producteur principal de panneaux. Mais, selon le cabinet d'études IHS iSuppli, le pays vend encore une grande partie des composants utilisés dans les écrans LCD, dont le verre, les filtres de couleur, les polariseurs et les LED.
Des milliers de disparus
Pour l'heure, la menace de fusion des coeurs dans deux centrales nucléaires reste forte, les incendies continuent de faire rage à certains endroits, des régions entières ont été dévastées et de très nombreuses voies de communication sont impraticables. Le tsunami, qui a suivi le séisme d'une magnitude de 8.9, a été particulièrement meurtrier, emportant des villages entiers sur son passage. Les premières estimations du nombre de victimes faites par le gouvernement - 1 597 morts et des milliers de disparus - sont continuellement revues à la hausse, et certaines sources locales évoquent la disparition de plusieurs milliers de personnes, comme dans cette ville de 17 000 habitants aujourd'hui rayée de la carte où 10 000 personnes manquent à l'appel.
Crédit photo : D.R.
Cloud computing : IBM se distingue avec une offre globale
« Après avoir beaucoup expliqué notre vision du cloud computing, nous avons observé un tournant. Fin 2010, on est passé du quoi au comment » nous a expliqué Virginie Hass d'IBM. Le cabinet d'études IDC abonde dans ce sens en indiquant que les dépenses dans le cloud représentent aujourd'hui 15% des dépenses informatiques des entreprises et passeront à 17% en 2015. « Une large majorité de nos clients ont une démarche cloud et, à l'exception des fournisseurs de services cloud, à travers 3 étapes bien distinctes ».
«1ère étape : des tests cloud sur des workloads simples à retour sur investissement rapide : des projets de test et développement, mais aussi du collaboratif. C'est clairement une démarche exploratoire.
2ème étape : L'adoption du SaaS pour accompagner une croissance rapide à l 'aide d'outils CRM. Beaucoup de PME y vont, car elles n'ont pas le budget pour une solution traditionnelle.
3ème étape : Transformer son système d'informations pour accompagner évolution de son business ».
À titre d'exemple, la dirigeante d'IBM cite le travail réalisé par l'université de Bari en Italie pour mettre à la disposition des pêcheurs de la ville des postes de travail virtualisés pour entrer le plus rapidement possible leur pêche du jour sur une plate-forme de marché local reposant sur un cloud. « Nous croyons que nos clients vont utiliser les moyens du cloud pour les mettre au service d'autres. Et si la majorité des investissements va aujourd'hui sur des solutions de type cloud privé, nos clients vont tout d'abord sur des clouds publics pour essayer la technologie. » Interrogé sur les différentes dans les marchés émergents, Virginie Haas explique volontiers que ces derniers voient dans le cloud un moyen d'accéder à des technologies qu'ils ne peuvent pas toujours se payer.
Une offre cloud computing sur 3 niveaux
Selon la vice-présidente, IBM accompagne les clients qu'elle que soit le modèle et attend un chiffre d'affaires de 7 milliards de dollars dans le cloud dont 3 milliards de nouveau business. Une partie de l'activité traditionnelle de Big Blue basculant logiquement sur cette plate-forme. Pour accompagner ses clients, IBM met en avant ses 13 labs disséminés à travers le monde. La France accueille par exemple à La Gaude, un centre cloud spécialisé dans l'industrie. Six datacenters à l'architecture commune sont répartis à travers le monde pour assurer une couverture horaire complète et un service 24/7 : deux aux États-Unis, un au Canada, un en Allemagne, un à Tokyo et un petit dernier à Singapour qui représente un investissement de 36 millions de dollars.
L'offre cloud d'IBM se décompose en trois niveaux :
- Le matériel avec CloudBurst pour les clients finaux ou les fournisseurs de service cloud, concurrent des plates-formes HP BladeSystem Matrix, Oracle On Demand, Dell Virtual Integrated System (VIS) ou encore VCE VBlock.
- Le cloud public d'IBM, reposant sur les six datacenters, concurrent des solutions Amazon EC2 et Microsoft Windows Azure, pour toutes les applications Tiers3 et Tiers4.
- Enfin, les solutions verticales pour les opérateurs télécoms et les SSII proposant une plate-forme de services cloud.
IBM est d'ailleurs le premier utilisateur de ses datacenters pour ses propres services cloud notamment en terme de recherche et développement.
Illustration principale : Virginie Haas, vice-présidente chez IBM GTS en charge de la stratégie et des ventes cloud.
(...)(11/03/2011 14:53:53)
XenCloud Platform, un cloud privé Open Source
Pour les entreprises de tailles moyennes, la réalisation d'un cloud privé représente quelques difficultés techniques, mais se heurte aussi à des considérations budgétaires. La communauté Xen.org à l'origine de l'hyperviseur Xen travaille depuis quelques années à élaborer une plateforme logicielle Open Source pour créer facilement des clouds privés pour ce type d'entreprises. Aujourd'hui, la communauté a publié la version 1.0 de Xen Cloud Platform (XCP).
Ce dernier comprend une plateforme de virtualisation de serveurs Open Source, l'hyperviseur Xen, la prise en charge de la brique réseau et stockage, plusieurs outils d'administration (PRA, la sécurité, le contrôle des performances en temps réel, la prise en charge du multitenant, etc.) et une compatibilité avec les systèmes d'exploitation Windows et Linux. Pour les adeptes de l'Open Source de bout en bout, Xen.org annonce l'intégration de sa solution avec la version Bexar d'OpenStack (projet de cloud Open Source promu par RackSpace avec des briques technologiques de la NASA).
La version 1.0 de XCP est disponible en téléchargement à cette adresse.
(...)(10/03/2011 11:02:09)Cloud computing : Les 10 tendances clefs selon IDC
Dans cette étude, le cabinet d'études IDC insiste particulièrement sur les questions de sécurité. Selon Eric Domage, directeur de recherche pour les produits et services de sécurité européenne chez IDC, "La sécurité est un inhibiteur à long terme pour l'adoption du cloud. Les entreprises y vont malgré les questions de sécurité, le défi est pour elles de garder le contrôle sur les données ». Pour sa part, David Bradshaw, directeur de recherche pour le SaaS et les services européens de cloud chez IDC scrute l'impact chez les différents : "les entreprises clientes cherchent des moyens par le cloud d'accroître leur flexibilité tout en réduisant leurs coûts, tandis que de nombreux fournisseurs, notamment les éditeurs de logiciels, se battent pour placer leurs offres cloud sur le marché avant qu'il ne soit trop tard."
Le top 10 des prévisions d'IDC pour le marché européen des logiciels de cloud en 2011forme le classement suivant :
1. Les éditeurs de logiciels devront intensifier leurs efforts pour devenir des acteurs du cloud en Europe.
2. Le SaaS va transformer les directeurs IT en gestionnaires de processus et d' approvisionnement.
3. L'essor du cloud local permettra d'accélérer l'adoption du SaaS en Europe centrale et méridionale.
4. Des modèles économiques de grossistes en cloud vont apparaîtrent.
5. Le traitement des données en gros volume deviendra un cas d'utilisation clés pour la BI en cloud.
6. Le cloud basé sur des plate-formes de réseaux sociaux va devenir de plus en plus important.
7. Les questions de sécurité, de conformité, de SLA, et d'emplacement des données ne seront pas résolues en 2011.
8. La sécurité du Cloud fait disparaître plus de barrières que prévu.
9. La gouvernance du cloud gagnera en importance, mais cette question n'entravera pas la croissance.
10. L'aspect infrastructure va gagner en importance.
VMware acquiert WaveMaker, un facilitateur de création d'applications Java
WaveMaker est basé sur le framework Spring de SpringSource que VMware a acquis il y a un an et demi. Il s'agit d'un outil graphique qui donne aux utilisateurs la possibilité de glisser-déposer des éléments pour créer une application web. Ils peuvent ainsi déployer leurs applications directement dans un cloud privé ou vers une variété de plates-formes, y compris Amazon, Rackspace, OpSource et Eucalyptus. Le logiciel fonctionne sur Windows, Mac OS, Red Hat et Ubuntu. Il prend également en charge les bases de données, notamment MySQL Server et Microsoft SQL.
Les utilisateurs de WaveMaker sont généralement des salariés qui ne sont pas des développeurs, mais qui veulent construire une application web. L'une des applications les plus courantes est de créer une page de e-commerce donnant la possibilité d'acheter un produit via une carte de crédit a déclaré Mark Brewer, vice-président de l'activité Spring de VMware. Mais il existe d'autres usages. Les magasins Macy's utilisent cette solution pour construire une application interne rassemblant une variété de données issues de plusieurs départements comme les ressources humaines ou les finances.
Simplifier et intégrer
Cette opération, dont les termes financiers n'ont pas été dévoilés, doit encourager les utilisateurs à consommer plus de services de cloud computing. Mark Brewer explique « si nous souhaitons propulser nos clients dans le cloud et qu'ils créent des applications, nous devons simplifier ce processus et rendre facile la programmation d'une application ».
L'éditeur prévoit de continuer à offrir WaveMaker sous licence Open Source, précise le dirigeant. Il commercialisera le support, la formation et le conseil. De plus, VMware envisage d'ajouter WaveMaker à son service Code2Cloud afin que les clients puissent utiliser ce logiciel comme un service plutôt que de le télécharger. Code2Cloud est un service hébergé de gestion de cycle de vie applicatif qui permet notamment aux développeurs de contrôler et de suivre les bogues et les tests sur les applications. Cette intégration devrait être effective dans les deux prochains mois.
Résultats LNA : un optimisme affiché pour 2011
La SSDI (Société de Service et de Distribution Informatique) LNA a clos son exercice 2010 sur un chiffre d'affaires de 66 M€, en hausse de 10% comparé à l'année précédente. Son résultat avant impôts s'établit à 1,5 M€, soit sensiblement le même niveau qu'en 2009. Cette année-là, l'entreprise avait réalisé une performance encore meilleure qu'en 2010 avec des revenus en croissance de 15%. « La crise n'avait pas encore pleinement affecté notre secteur », justifie Thierry Martin, le président de LNA.
Quoi qu'il en soit, la SSDI relève encore une fois l'objectif de revenus qu'elle s'est fixée d'ici 2015. Il passe à 250 M€ contre 200 M€ annoncés lors de la clôture de son exercice 2009. Cette révision à la hausse tient notamment aux deux importants appels d'offres publics que l'entreprise a gagné cette année. Le premier a donné lieu à la signature d'un contrat avec l'UGAP (Union des Groupements d'Achats Publics) pour la fourniture de solutions de stockage et de serveurs pour un montant prévisionnel de 100 M€ sur trois ans. Le second, gagné auprès du SAE (Service des Achats de l'Etat), porte sur la fourniture de systèmes d'impression sur 4 ans pour un montant prévisionnel de 87 M€.
Le fait d'avoir remporté ces marchés contribue à rendre nécessaire des embauches supplémentaires chez la SSDI. En 2011, celle-ci cherche notamment à recruter deux à trois commerciaux avant-vente en serveur et stockage et deux autres profils similaires dans le secteur de l'impression. Une dizaine de commerciaux grands comptes généralistes devraient également la rejoindre ainsi qu'au moins six commerciaux pour renforcer l'effectif de ses six agences régionales.
VMware lance vCenter Operation, outils de contrôle et de gestion de la virtualisation
« La virtualisation concerne de plus en plus les applications critiques de l'entreprise, comme les bases de données et les e-mails » indique Lionel Cavallière, responsable marketing Europe de VMware. Mais cela met la pression sur les fournisseurs de solutions de virtualisation pour fournir des plates-formes de gestion plus complète. « Aujourd'hui, les entreprises sont de plus en plus préoccupées par leur capacité à gérer leurs infrastructures virtualisées » explique le dirigeant. La réponse de VMware se nomme vCenter Operation, qui comprend des outils dédiés à la performance, à l'allocation de capacité et à la gestion de configuration. Cette solution intègre une combinaison de logiciels dont VMware a fait l'acquisition et des services développés en interne. Lionel Cavallière précise « nous disposions avant de 15 produits en matière d'administration, la stratégie est maintenant de les regrouper au sein de thématiques, vCenter Operation est le premier exemple de cette démarche ». Pour certains, c'est aussi l'occasion pour l'éditeur de monter en puissance dans l'infrastructure virtualisée et plus particulièrement dans les datacenters.
Des offres thématiques
Elle se décline en trois versions: Standard, Advanced et Enterprise. La première est basée sur le logiciel Integrien, que VMware acquis l'année dernière et a amélioré. Lionel Cavallière indique que « les administrateurs auront une meilleure granularité dans la visualisation du réseau et seront plus proactifs en fonction des données de performance analysées en temps réel » et d'ajouter « auparavant, les données étaient réparties sur plusieurs sites, et il était difficile pour les administrateurs d'obtenir une vue d'ensemble ». La version Advanced ajoute un gestionnaire de capacité, vCenter Capacity IQ. Celui-ci peut être acquis indépendamment. Enfin, la version Entreprise combine l'offre Standard et Capacity IQ avec vCenter Configuration Manager, qui ajoute la possibilité de gérer également les environnements physiques, le stockage et les périphériques réseaux. A noter que ces solutions devraient être étroitement liées à vSphere. La version 5 de ce dernier a été dévoilée en partie lors d'un évènement partenaires récent à Orlando.
Les trois versions seront disponibles en fin de premier trimestre, avec des prix commençant à 50 dollars par machine virtuelle pour l'offre Standard, qui est plafonnée à 500 machines virtuelles. Le tarif pour les versions Advanced et Entreprise n'est pas encore connu.
< Les 10 documents précédents | Les 10 documents suivants > |