Flux RSS
Infrastructure serveur
2924 documents trouvés, affichage des résultats 391 à 400.
< Les 10 documents précédents | Les 10 documents suivants > |
(24/06/2011 15:01:39)
Structure 2011 : Bromium veut repenser la sécurité dans le cloud
Simon Crosby a créé Bromium (dont il est le CTO) avec Guarav Banga, ancien CTO et vice-président senior chez Phoenix Technologies (PDG de la start-up). Ian Pratt, président de Xen.org et co-fondateur de XenSource est en charge de la partie produit. La société a été présentée rapidement mardi à la conférence Structure Gigaom à San Francisco. « Bromium a des plans pour utiliser un hyperviseur pour fournir aux serveurs et aux clients une protection continue contre les malware », a indiqué Simon Crosby et d'ajouter « nous pensons avoir trouvé un moyen de permettre à un hyperviseur de protéger en mode continu des parties de code exécutable ».
Les entreprises sont préoccupées par la sécurité du cloud computing, mais la menace ne réside pas dans le nuage, précise le fondateur. La grande majorité des attaques sur les cloud privés d'entreprises se déroulent à partir de clients non sécurisés. L'accès aux ressources sur le cloud depuis n'importe où et sur une variété consistante de terminaux, nécessite une autre approche de la sécurité.
Une solution encore bien secrète
Bloquer l'usage des PC obère l'expérience utilisateur. On peut se tourner vers la virtualisation du poste de travail pour avoir plus de sécurité, mais cette option laisse encore certaines vulnérabilités comme les mails avec des pièces jointes, souligne le responsable technique. La technologie proposée par Bromium sécurisera les applications dans le cloud et les bureaux virtuels ainsi que les terminaux des utilisateurs, selon une diapositive montrée par le fondateur lors de la conférence Structure. Cette solution fonctionnera sur différents type de processeurs, y compris x86 et ARM, et sera optimisée pour les appareils mobiles.
Selon un communiqué de presse, Bromium a levé 9,2 millions de dollars auprès de capitaux-risqueurs et devrait présenter son produit avant la fin de cette année. La société est basée à Cupertino, en Californie, et à Cambridge au Royaume-Uni.
Illustration: Simon Crosby
(...)(24/06/2011 15:01:37)Oracle : ventes de logiciels en hausse, matériel en baisse au 4e trimestre
Confortée par la croissance de son activité logicielle, Oracle a présenté les résultats de son quatrième trimestre fiscal 2011 clos le 31 mai montrant une hausse de 36% de son bénéfice net à 3,2 milliards de dollars par rapport à l'exercice fiscal précédent. Le total du chiffre d'affaires pour le trimestre a augmenté de 13% à 10,8 milliards de dollars. Les ventes de licences logicielles, qui sont considérées comme un indicateur clé de la bonne santé du marché ont augmenté de 19% pour atteindre 3,7 milliards de dollars. En revanche, le chiffre d'affaires de la branche matérielle a diminué de 6% et s'élève à 1,2 milliard de dollars. Cette baisse sur les revenus du matériel a affecté le cours de l'action d'Oracle, hier jeudi. Celui-ci est ensuite remonté.
Sur l'ensemble de l'exercice fiscal, le bénéfice net a bondi de 39% à 8,5 milliards de dollars et le chiffre d'affaires de l'éditeur a atteint les 35,6 milliards de dollars, soit une hausse de 33%.
Safra Catz, co-présidente et directrice financière d'Oracle, a tenu à souligner dans un communiqué que la croissance des ventes de logiciels pour le quatrième trimestre avait été réalisée sans l'aide, pratiquement (ou dans une moindre mesure), des acquisitions.
Plus de 1 000 Exadata dans le monde
L'éditeur s'est résolument tourné vers le hardware avec l'intégration de Sun Microsystems. Il a livré des systèmes tels que les Exadata, des serveurs de stockage dédiés aux bases de données Oracle. « Ces systèmes ont fortement contribué à notre croissance au cours du quatrième trimestre », a pour sa part indiqué Mark Hurd, co président d'Oracle. « Aujourd'hui il existe plus de 1 000 Exadata installées dans le monde. Notre objectif est de tripler ce nombre au cours de l'exercice fiscal 2012 ».
Les Exadata sont toutefois confrontés à la concurrence d'IBM, avec sa division Netezza, et de SAP, qui a lancé HANA, son appliance d'analyse en mémoire. Les traitements « In-memory » s'effectuent en mémoire vive, ce qui dope la performance par rapport aux systèmes devant lire les données sur disques. Lors de la conférence téléphonique de commentaires des résultats, Larry Ellison, PDG d'Oracle a indiqué que son groupe prévoyait d'annoncer un accélérateur « in-memory » pour Exadata, lors de son événement annuel OpenWorld (à San Francisco, en octobre prochain), ainsi qu'un accélérateur pour les Big Data, mettant en oeuvre le framework open-source de programmation Hadoop.
« Un accélérateur in-memory peut signifier différentes choses », a estimé Curt Monash, analyste chez Monash Research «Gérer des données en mémoire en étant relié à un système de gestion reposant sur des disques est un peu plus difficile que de simplement gérer des données en mémoire ». Le projet d'Oracle concernant un produit reposant sur Hadoop est peu surprenant compte tenu de l'attention généralisée manifestée pour cette technologie ces derniers temps par les acteurs du datawarehouse et du décisionnel. En attendant, les ventes d'Exadata et du serveur Exalogic se portent à merveille, a affirmé Mark Hurd durant la conférence téléphonique. Le lancement d'Exalogic se déroule même encore mieux que celui d'Exadata.
Matériel: le revenu du support augmente
Alors que les ventes de matériels ont baissé sur le trimestre, les revenus du support associés ont augmenté, à la faveur de meilleurs taux de souscription enregistrés sur les nouvelles ventes, a expliqué le co-président. Oracle vend aussi moins de systèmes avec des marges plus élevées. C'est, selon lui, fondamental pour disposer d'une activité matérielle solide.
Illustration : Safra Catz, directrice financière d'Oracle et co-présidente, sur OpenWorld 2010 (crédit : MG)[[page]]
« Oracle se débrouille bien pour pousser du matériel vers sa base installée de clients, remarque l'analyste Ray Wang, PDG de Constellation Research, dans une interview accordée à nos confrères d'IDG News Service hier, juste avant l'annonce des résultats. « Cela a commencé avec Exadata et il apprend doucement à se comporter comme un fournisseur de matériel. » Pour lui, ce n'est pas une compétence facile à acquérir pour un groupe qui n'évolue pas traditionnellement sur ce terrain.
L'analyste, qui aide les acheteurs de logiciels à négocier leurs contrats avec les vendeurs, a constaté l'agitation habituelle des discounts de fin d'année [NDLR : fiscale] sur les contrats du quatrième trimestre réalisés par Oracle. Mais celle-ci n'a toutefois pas été aussi forte que l'an dernier.« Sans aucun doute, Oracle progresse du côté de son activité applications, mais à l'instar des autres éditeurs, cette croissance vient des solutions complémentaires, pas des applications centrées sur l'ERP en soi ».
Quels clients vont aller vers Fusion Applications ?
Après une longue attente, Oracle est finalement prêt pour livre sa nouvelle génération Fusion Applications, supposée combiner le meilleur de chacune des lignes de produits que l'éditeur a acquises. Les clients appréhendent de différentes façons cette offre, selon leurs situations particulières, note Ray Wang. Les clients Oracle « purs et durs » qui ont déjà lourdement investi dans les technologies de la firme au logo rouge migrent pour la plupart vers la E-Business Suite 12, puis se dirigeront vers Fusion Applications. Tandis que les clients utilisant des logiciels rachetés par Oracle adoptent plutôt une attitude attentiste, de type « wait and see ». Il y a aussi des utilisateurs de longue date, clients depuis les années 90, qui jettent un oeil vers SAP, ajoute Ray Wang.
Un certain nombre de clients Fusion Applications sont désormais en production, a indiqué Larry Ellison au cours de la conférence téléphonique. La suite logicielle sera disponible dans l'infrastructure cloud d'Oracle de même qu'en clouds privés, a-t-il ajouté. Le cloud d'Oracle offrira aux clients un niveau plus élevé de sécurité que ceux des concurrents tels que Salesforce.com, n'a-t-il pas craint d'affirmer.
Par ailleurs, Oracle prévoit d'embaucher davantage de commerciaux et modifie la façon dont ces forces de vente sont réparties, a indiqué Mark Hurd. « Il devrait y avoir un vendeur pour vingt clients, a-t-il précisé. Nous pensons que ce commercial a l'opportunité de vendre autant de logiciels qu'à cinq clients ». (...)
La suite cloud BPOS de Microsoft en panne, juste avant le lancement d'Office 365
La suite hébergée de communication et de collaboration BPOS de Microsoft était encore en panne mercredi. Cet incident est le dernier en date d'une série de problèmes techniques qui se sont succédés au cours des mois précédents. En effet, depuis août 2010, la suite BPOS (Business Productivity Online Suite), qui inclut Exchange Online et SharePoint Online, subit des interruptions diverses. Cette fois, apparement, la panne, qui a affecté uniquement les clients situés en Amérique du Nord pendant plus de trois heures, serait imputable à un matériel réseau, selon les informations communiquées par l'éditeur sur le fil Microsoft Online Twitter et par des administrateurs sur des forums de discussion.
Lors de chaque incident, Microsoft a reconnu ces problèmes, présentant chaque fois des excuses, tout en promettant d'améliorer son service. Dans un communiqué publié mercredi, l'entreprise de Redmond a indiqué que l'incident avait démarré à 11 h, heure locale (côte est des États-Unis), et confirmé que celle-ci résultait de « problèmes d'équipement réseau » dans un centre de calcul. « Tous les services ont été rétablis. Au moment de l'incident, les clients ont pu utiliser les canaux des médias sociaux, l'accès au Service Health Dashboard ayant été affecté par cet incident. Nous nous excusons pour tout désagrément causé à nos clients », poursuivait le communiqué.
Un temps de disponibilité de 99,9%
Cependant, cette succession de pannes repose la question de la performance et de la fiabilité de la suite BPOS à un moment particulièrement mal venu pour Microsoft, qui doit lancer la prochaine version de son BPOS, Office 365, la semaine prochaine. « L'impossibilité d'accéder à sa messagerie est toujours mal vécue, surtout quand les mails se trouvent dans le cloud et que le client n'a aucun moyen d'y remédier », a déclaré Matt Cain, analyste chez Gartner. « Il est clair néanmoins que le fait d'utiliser des applications hébergées dans le cloud implique une certaine perte de contrôle par les services informatiques sur des pannes peuvant survenir dans le centre du fournisseur de service », a t-il ajouté.
Selon l'analyste, « les clients doivent comprendre que le contrat avec un service cloud consiste aussi à accepter un temps de disponibilité, de 99,9 % dans le cas du service de Microsoft, à supporter quelques pannes, et à obtenir éventuellement des dédommagements de la part du fournisseur dans le cas où son niveau de service n'est pas conforme », explique encore l'analyste.
Quid de la disponibilité d'Office 365
Microsoft a beaucoup investi dans Office 365, qui doit apporter des améliorations conséquentes au BPOS actuel, et espère mieux concurrencer les offres rivales, notamment la suite de communication et de collaboration hébergée de Google, Google Apps. Par exemple, les applications Office 365 seront basées sur les versions 2010, équivalentes aux versions des applications équivalentes sur site, et non plus sur les versions 2007, comme c'est le cas actuellement pour BPOS. En outre, Office 365 permet de travailler avec les applications Microsoft Office, ce qui n'est pas le cas de BPOS. En effet, avec Office 365, il est possible de travailler soit avec Office Web Apps, soit avec la version plus puissante Office 2010 Professionnal Plus.
Sur Microsoft Online, l'éditeur assure que le service sera plus stable avec Office 365. Reste à convaincre les administrateurs BPOS, qui, sur les forums de discussions, se sont plaints de la succession de pannes et ont exprimé un certain scepticisme quant à la capacité de Microsoft à garantir un temps de disponibilité fiable pour le futur Office 365. (...)
La pénurie de disques durs se poursuit au troisième trimestre 2011
Les livraisons de disques durs risquent de devenir encore plus problématiques à partir du deuxième semestre. Selon le site Digitimes, le manque de stock est estimé à 15-20 millions d'unités au troisième trimestre de cette année alors que la demande globale de disques durs ne cesse de croître. Cette dernière pourrait atteindre les 180 millions de pièces entre juillet et fin septembre, les cinq principaux fabricants n'étant capable d'en produire que 160 à 165 millions d'unités. Cette perspective ne ferait qu'aggraver une situation déjà tendue avec un déficit de production de 10 millions au 2e trimestre, selon les informations fournies par les groupes.
Le cloud entretient la pénurie
Et il est peu plausible que la pénurie ne soit résorbée d'ici la fin de l'année. La forte demande prévue au 3e trimestre est à mettre sur le compte de la tendance au remplacement des produits IT par les entreprises ainsi que sur la hausse des besoins en serveurs pour le cloud, précise Digitimes. Le manque de disques durs devrait toutefois permettre de maintenir les prix dans le secteur. Quelque 50% de la fourniture est utilisée pour les desktops, les notebooks et les netbooks, les serveurs nécessaires au cloud en utilisant moins de 10% actuellement. La situation est cependant en train de changer, les fabricants se tournant de plus en plus vers ce dernier marché, plus lucratif, au vu de la demande croissante pour du stockage de données dans les nuages.
(...)(24/06/2011 09:53:51)Orange Business Services et SITA s'unissent autour du cloud
SITA et Orange Business Services ont annoncé la conclusion d'un accord visant à construire conjointement une infrastructure mondiale de cloud computing entièrement managée. Elle sera destinée à fournir des services cloud sécurisés et performants aux entreprises du secteur aérien et aux sociétés multinationales.
Le projet comprend six datacenters de niveaux III+ et IV, répartis sur les cinq continents, à Francfort, Atlanta, Johannesburg, Singapour, Hong Kong et Sydney. Chaque centre couvrira sa zone géographique régionale et sera interconnecté via le réseau MPLS (Multi Protocol Label Switching) à haut débit d'Orange. Les deux acteurs proposeront à leur clientèle leur portefeuille de services respectif de cloud computing, incluant des solutions d'infrastructure (IaaS), de software (SaaS), de plateforme (PaaS) et de poste de travail (DaaS - Desktop as a Service). Les deux groupes garderont la relation avec leurs propres clients finaux, précisent dans un communiqué les partenaires de longue date.
Au niveau de la sécurité, l'infrastructure fournira notamment des connexions redondantes, des sites relais en cas de panne et des solutions de réacheminement de trafic (grâce au réseau intelligent). Elle garantira en outre un temps de latence minimal d'accès aux applications (pas plus de 100 millisecondes).
Un projet en plusieurs étapes
«C'est seulement en travaillant ensemble que nous pourrons proposer une infrastructure de cloud computing hautement performante qui pourra répondre aux besoins mondiaux complexes du secteur du transport aérien», a expliqué Francesco Violante, directeur général de SITA. Les datacenters d'Atlanta, de Francfort et de Singapour seront pleinement opérationnels au premier trimestre 2012 alors que ceux de Johannesburg, Hong Kong et Sydney le seront au troisième trimestre de la même année.
Créée en 1949 par 11 compagnies aériennes, SITA emploie aujourd'hui plus de 2000 personnes dans le monde. Ses principaux bureaux se trouvent à Genève, Amsterdam et Bruxelles. Le groupe possède deux filiales principales: OnAir, actif sur le marché de la connectivité en vol, et Champ Cargosystems, une société informatique qui se consacre exclusivement au fret aérien.
www.ictjournal.ch
Boston IT 2011 : Automatisation du datacenter chez Egenera et virtualisation globale avec Sanbolic
Spécialisé dans d'administration d'environnements virtuels avec sa suite PAN Manager, Egenera ajoute le support des serveurs lames de HP après ceux de Dell et de Fujitsu. Le logiciel PAN Manager simplifie et automatise l'administration des datacenters tout en apportant des services intégrés de haute disponibilité et de récupération après sinistre pour les serveurs physiques et virtuels. Le logiciel utilise des serveurs standards et l'interface Ethernet pour créer des pools de serveurs et de stockage qui peuvent être facilement réaffectés. Le logiciel PAN Manager est déployé sur plus de 1 600 sites dans le monde. Le logiciel prend en charge actuellement le matériel d'Egenera, de HP, de Dell et de Fujitsu, et le stockage de Dell, EMC, Fujitsu, HDS, HP/3Par, IBM, NetApp...
Une roadmap ambitieuse
Si l'éditeur ne supporte pas encore les environnements serveurs hétérogènes, il compte bien y parvenir au deuxième trimestre 2012 après avoir intégré les machines d'IBM début 2012. C'est ce que nous a expliqué Scott Geng, Pan manager chez Enegera en nous présentant la roadmap de l'éditeur. « Nous continuons à étendre les plates-formes que nous supportons. Après Dell, Fujitsu et HP, nous allons intégrer le dernier grand acteur marché ». IBM pour ne pas le citer même si le nom de la compagnie était bien présent sur la présentation d'Egenera. Alors que Cisco, le principal concurrent de la compagnie, continue de vendre des machines UCS avec ses outils d'administration, Egenera a définitivement cessé de fabriquer ses serveurs, puisque « les fournisseurs de matériel se multiplient pour fournir les meilleurs prix ».
En attendant de supporter les environnements hétérogènes, Egenera doit donc abandonner son approche silo, c'est à dire une gestion réservée à chacun de ses partenaires(Dell, Fujitsu et HP pour l'instant) et passer à une solution de management multi plate-forme appliquée aux hyperviseurs, au cloud et au stockage.
Virtualisation et automatisation chez Sanbolic
Après cette matinée chez Egenera, nous nous sommes rendus chez Sanbolic pour parler stockage et virtualisation avec l'arrivée de la version 3.5 de Melios, sa suite d'administration et de partage de fichiers. En plus du support des hyperviseurs Vsphere, Xen, KVM et Hyper-V, Melios 3.5 apporte la migration dynamique des volumes de stockage entre des baies ou des serveurs hétérogènes. La suite logicielle Melio prend en charge tout le système de stockage et les infrastructures serveur, pour permettre l'échange de données entre les machines physiques. Selon le CEO de Sanbolic, Michailov Momchil, cela peut contribuer à réduire la nécessité d'acheter un espace de stockage supplémentaire.
Eva Helene, présidente, et Michailov Momchil, CEO de Sanbolic
Système de fichiers en cluster et suite de gestion de volumes, Melio 3.5 propose également des snapshots pour la sauvegarde de données, des mécanismes de contrôle de la qualité de service et d'automatisation de migration de données (multi tiering). « Nous entrons dans l'ère de la virtualisation des charges de travail dans le cloud avec l'agrégation des capacités de stockage et serveurs et le support d'un large éventail d'hyperviseurs » explique encore le dirigeant. Si la précédente génération de Melios ne prenait en charge que l'hyperviseur de Microsoft, la version 3.5 supporte celui de VMware, Xen et KVM.
Récupération du stockage inexploité sur les serveurs et les baies
Les principales fonctionnalités de la plateforme logicielle de Sanbolic comprennent la création d'un seul pool de stockage flexible à partir de multiples serveurs ou baies SAN, la gestion centralisée des volumes en lecture-écriture (en mode bloc) sur tous les serveurs reposant sur Windows. A titre d'exemple, un serveur Cisco UCS est livré avec un espace de stockage interne de 32 To qui peut être récupéré et virtualisé par Melios 3.5 dans un pool unique partagé par différentes applications. « La valeur fondamentale de Melio 3.5 est qu'il répond aux demandes de disponibilité et d'évolutivité dans les environnements physiques, virtuels et cloud pour mieux supporter les charges de travail, poursuit le CEO. Finalement, ce que les entreprises recherchent, c'est l'amélioration de la flexibilité et de l'agilité de leur système d'information et c'est ce que nous offrons. »
(...)(23/06/2011 13:12:32)
Structure 2011 : Paul Maritz, PDG de VMware, définit l'ère post-document
« L'ère du PC va céder la place à un monde centré sur les données, où les terminaux et les infrastructures seront façonnés par les informations que les utilisateurs voudront en obtenir », a déclaré hier Paul Maritz, patron de VMware lors de la conférence Structure 2011 organisée par Gigaom à San Francisco du 22 au 23 juin. « Je suis d'accord avec Steve Jobs quand il dit que nous sommes au début de la fin du règne du PC », a t-il ajouté. « Peut-être, sur le long terme, assisterons-nous à l'ère post-document ». Interrogé lors de son intervention par le fondateur de Gigaom, Om Malik, Paul Maritz a déclaré que le PC avait été inventé pour automatiser un espace de travail où les cols blancs créent des documents, mais que la tâche principale des utilisateurs aujourd'hui réside dans le filtrage et la distribution des flux de données.
Ce sont donc les données qui vont déterminer à quoi ressembleront les terminaux plutôt que l'inverse, parce qu'elles survivront aux équipements sur lesquels elles se trouvent, a poursuivi Paul Maritz. Pour lui, chacun d'entre nous sera caractérisé par un ensemble d'informations personnelles qui devront vivre avec nous toute notre vie. « Dans le même temps, il existera des conflits se rapportant au contrôle des données et à l'argent qu'elles pourront rapporter à certains. » Les leçons apprises par le biais des entreprises s'adressant au grand public, telles que Facebook, qui sont aux prises avec ces problèmes ne seront pas perdues sur les grands départements IT.
L'extensibilité prise en compte dès l'origine
« Les personnes qui sont sur ce terrain ont déjà du passer à des architectures qui traitent des volumes de données beaucoup plus importants que ceux que l'on trouve dans les entreprises », rappelle le PDG de VMware. En conséquence, de nouvelles architectures de données telles que Hadoop migrent des grands acteurs du Web vers les entreprises de façon générale, souligne-t-il. Des sociétés de toutes sortes veulent devenir plus efficaces dans la façon dont elles gèrent leurs infrastructures. L'automatisation, s'appliquant au déplacement des traitements dans les environnements virtualisés, est la priorité principale de VMware, a-t-il indiqué.
« Nous ne pouvons pas nous permettre, à l'avenir, d'écrire des applications qui comportent des schémas inflexibles qui ne peuvent pas être étendus et qui requièrent un nouvel ensemble de paradigmes pour les données. Les développeurs ont également adopté des environnements tels que Ruby et Spring qui apportent la notion d'extensibilité sans qu'ils aient besoin d'y penser.»
Améliorer l'efficacité est également une préoccupation pour VMware. Paul Maritz s'est déclaré fier que sa société puisse sortir chaque année une mise à jour majeure de son logiciel phare hautement complexe. La prochaine livraison de Vsphere arrivera cette année et elle devrait arriver dans les temps, prévoit Paul Maritz.
Illustration : Paul Maritz, PDG de VMware (crédit photo : D.R.) (...)
Un manque de connaissances sécuritaires par les entreprises utilisant le cloud
En analysant les contenus web de clients d'Amazon Web Services (AWS), les chercheurs de l'institut ont fait des constatations alarmantes. Dans au moins un tiers des cas, la configuration était erronée, ce qui a permis aux analystes d'accéder sans trop de problèmes à des données sensibles telles que des mots de passe, des clés de cryptage et des certificats.
A l'aide de ces informations, des pirates seraient en mesure de mettre sur pied des infrastructures criminelles virtuelles, manipuler des services web ou encore désinstaller des programmes informatiques sécurisés à l'image de Secure Shell (SSH). Ceci malgré les nombreuses recommandations de sécurité d'AWS sur son site, comme les chercheurs l'écrivent dans un communiqué. Pour leur étude, ils se sont basés sur l'analyse de failles potentielles de quelque 1100 machines virtuelles du service du groupe de commerce électronique américain.
«Le problème réside clairement du côté des clients et non chez Amazon Web Services», a expliqué le professeur Sadeghi de la Ruhr-Universität à Bochum en commentant les conclusions de l'enquête. Il en a déduit que les utilisateurs d'offres cloud d'autres prestataires devaient faire face aux mêmes dangers de par leur ignorance et négligence. En accord avec l'équipe sécurité d'AWS, les clients concernés par des failles ont été avisés, précise Cased.
(...)(22/06/2011 10:25:19)Une croissance spectaculaire pour le cloud public selon IDC
C'est bien simple, « Le cloud computing va continuer à remodeler le paysage informatique au cours des cinq prochaines années, les dépenses sur les services de cloud public se développeront avec un taux de croissance annuel composé (TCAC) de 27,6%, passant de 21,5 milliards de dollars en 2010 à 72,9 milliards de dollars en 2015 » analyse IDC. Le cabinet d'études assure même que cet effet d'entraînement du cloud va dynamiser la croissance de l'industrie informatique pour les 25 prochaines années.
Selon Frank Gens, senior vice-président et analyste en chef chez IDC, « les services cloud sont interconnectés et accélérés par les technologies de rupture, parmi lesquelles les appareils mobiles, les réseaux sans fil, ou les réseaux sociaux. Et de hisser le cloud au rang de troisième plate-forme de croissance à long terme pour l'industrie IT, après le mainframe et le PC. Le cloud, lui aussi élargit considérablement le nombre d'utilisateurs et d'usages ».
Les services de cloud affichent une croissance quatre fois supérieure à la dépense informatique mondiale. Pour sept dollars dépensés en progiciels, serveurs et solutions de stockage, en 2015, un sera lié au modèle cloud. IDC note d'autres éléments. En 2015, le cloud public comptera pour 43% de la nouvelle croissance nette dans cinq catégories de produits : applications, développement et déploiement d'applications, logiciels d'infrastructure, stockage, serveurs. Les logiciels en SaaS alors représenteront les trois quart des dépenses de cloud public.
< Les 10 documents précédents | Les 10 documents suivants > |