Flux RSS

Infrastructure serveur

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

2924 documents trouvés, affichage des résultats 61 à 70.

< Les 10 documents précédentsLes 10 documents suivants >


(09/02/2012 15:10:01)

Tech.days 2012 : L'Iéseg a fait le choix de Microsoft Live@edu dans le cloud

Lors des Tech.days, l'Iéseg, une école de commerce et de gestion située à Lille et Paris, a fait part des raisons qui l'ont conduit à déployer la messagerie en mode cloud Live@edu et à utiliser des services de collaboration par l'intermédiaire de la plate-forme Windows Live skyDrive. « Nous devions remplacer l'outil de messagerie de nos 2 700 étudiants », a exposé Cédric Malvache, responsable informatique de l'Iéseg. « L'espace de leurs boîtes mail étant insuffisant, les élèves avaient tendance à délaisser Exchange pour utiliser d'autres outils, En outre, nous souhaitions fournir, aux jeunes et au personnel administratif, des services de collaboration tels qu'une solution de partage de calendrier en ligne qui auparavant faisait défaut. En optant pour une solution cloud, nous sommes passés d'un taux de disponibilité de 96% à 99,98%. De plus, ce choix nous permet de monter automatiquement en version, ce qui n'était pas possible avec l'ancien prestataire. Pour nous connecter sur l'un des services offerts par Live@edu, nous utilisons notre identifiant (live id) qui en réalité est simplement l'adresse mail de l'Iéseg. »

Live@edu est une messagerie électronique qui propose 10 Go d'espace de stockage. Elle inclut différents autres services pour communiquer et travailler avec les enseignants et les étudiants : stockage et partage de documents en ligne, agendas partagés, carnet d'adresses, constitution de groupes, messagerie instantanée et également visioconférence. 
Étudiants et enseignants peuvent facilement planifier des rendez-vous en partageant leur agenda avec qui ils veulent. Grâce à la messagerie instantanée intégrée, il est possible de visualiser immédiatement qui est en ligne et de discuter à deux ou en groupe. Les emails peuvent être consultés depuis le logiciel de messagerie habituel, des navigateurs web (Microsoft Internet Explorer, Mozilla Firefox ou Safari), ou des smartphones (dont le BlackBerry et l'iPhone).

Support de Chrome et d'iCal

Les services Outlook Live et Outlook mobile avec Exchange ActiveSync permettent également d'accéder de partout aux emails, calendrier, contacts et tâches.

Les élèves ont également la possibilité de créer des espaces de travail en ligne sur Windows Live Skydrive, un disque dur virtuel de 25 Go par utilisateur protégé par mot de passe. Des Office Web Apps permettent aussi d'élaborer, de visualiser et de modifier en ligne des fichiers Word, Excel, Powerpoint et OneNote. Le service Windows Live Groups aide à réaliser une  page personnelle en quelques minutes, incluant blogs d'équipe dans le cadre d'un projet d'études, ou d'une association. Enfin, l'outil Windows Live Mesh 2011 synchronise une partie des fichiers de l'espace de stockage sur des ordinateurs - PC ou Mac - à l'école ou à la maison, ou sur des terminaux mobiles, de manière automatisée.

« Microsoft a fait d'importants efforts sur l'interopérabilité », a souligné Eric Ortiz, spécialiste des solutions Cloud dans l'éducation chez l'éditeur. « Le support de Chrome et des calendriers au format iCal d'Apple est assuré sur Live@edu. La plateforme fonctionne aussi sur des smartphones et également sur des Mac, sachant que ces deniers sont utilisés par 40% d'étudiants de grandes écoles ». Selon lui un établissement scolaire aura tout intérêt à se tourner vers une solution cloud pour se délester de l'investissement matériel. « Dans les grande écoles et les universités, la masse d'individus est comparable à celle d'une multinationale », estime-t-il. Or, il est coûteux de proposer des services qualitatifs à tout le monde. Des services hébergés et gratuits, tel que Live@edu, permettent donc aux établissements publics de mieux maîtriser et d'optimiser la gestion de leur masse salariale. »

(...)

(08/02/2012 15:20:41)

Amazon Web Services baisse les tarifs du stockage sur S3

Les utilisateurs de l'offre de stockage, S3, d'Amazon Web Services vont voir leur facture allégée. Ce service est facturé mensuellement en fonction de la quantité de données stockées. Pour la zone américaine (sauf sur le datacenter de Californie du Nord), européenne et pour Singapour, le tarif demandé passe de 0,14 dollars par Go par mois à 0,125 dollars par Go/mois pour le premier To stocké. Le prix change aussi jusqu'à 49 To de données, le prix au Giga passe de 0,125 dollars à 0,110 dollars par Go/mois. Le stockage de 450 To et 500 To profite également d'une baisse des prix.

Coûts annexes et 762 milliards d'objets stockés sur S3

Cette réduction des coûts est effective depuis le 1er février. On notera qu'au prix du stockage, il faut aussi intégrer les tarifs des demandes et celui du transfert des données. Cette annonce est aussi une réponse à l'étude menée par le Gartner qui indiquait qu'utiliser des outils de BI dans le cloud pouvait se révéler plus cher qu'une solution sur site au bout de 5 ans. Elle intervient aussi alors qu'Amazon a indiqué la semaine dernière que son offre S3 avait stocké 762 milliards d'objets en 2011 contre 262 milliards en 2010.

(...)

(08/02/2012 09:17:05)

Eurocloud veut évangéliser sur le cloud

Au deuxième semestre 2012, Eurocloud lancera une campagne pluri-média. « Nous allons évangéliser à grande échelle en menant des actions pour sensibiliser 8 000 revendeurs français au cloud computing » nous explique Pierre-José Billotte, président d'Eurocloud. L'association lance un appel  d'offres pour désigner une agence de communication, elle présentera ce projet lors de ses Etats Généraux, le 21 mars prochain. « Le cloud bouge, mais n'est pas encore en phase d'expansion, c'est pourquoi nous devons passer la vitesse supérieure ».

En attendant, Eurocloud a lancé un site Internet presidentielle2012.eurocloud.fr pour sensibiliser les candidats aux élections présidentielles à ses thèmes. Il prépare ses Etats Généraux, 7ème  du nom etats-generaux.eurocloud.fr. Cette année, ils quittent la Bourse de commerce pour rejoindre la CCI de Paris, avenue de Friedland, un espace plus grand pour accueillir 12 ateliers et non plus 9. « Nous élargissons notre éco-système d'éditeurs et d'intégrateurs et préparons de nouveaux thèmes d'ateliers », souligne Henry-Michel Rozenblum, délégué général. KPMG parlera par exemple de la valorisation des échanges et un atelier traitera du thème : « le SaaS et les flux critiques de l'entreprise seront-ils compatibles » avec le DSI d'un grand groupe comme témoin.

(...)

(06/02/2012 15:11:15)

AMD n'exclut pas d'utiliser l'architecture ARM

La stratégie annoncée par Advanced Micro Devices (AMD) en matière de design laisse penser que le fondeur a décidé de réduire son engagement en faveur de l'architecture x86. En effet, le fondeur californien a déclaré en fin de semaine dernière qu'il était ouvert à l'intégration d'autres éléments de tierce-partie dans ses futurs processeurs afin de concevoir des puces qui répondraient aux besoins de ses clients. Cette stratégie pourrait notamment ouvrir la voie à l'utilisation de la technologie ARM dans les futures puces du fondeur. « Si un client a besoin d'une architecture différente d'x86, AMD combinera son architecture propriétaire avec celle du fabricant de tierce-partie, » a déclaré dans une interview Mark Papermaster, CTO de AMD. « AMD veut satisfaire aux exigences des clients, » a-t-il indiqué. « Nous travaillerons donc avec toutes les architectures d'instructions disponibles. » Le CTO d'AMD n'a pas dit spécifiquement que le fondeur utiliserait la technologie ARM, mais le fabricant s'est dit ouvert à d'autres jeux d'instructions pour ses processeurs, donc ARM, MIPS et PowerPC.


AMD a fait part de sa nouvelle stratégie alors que le paysage informatique subit des changements radicaux. Si l'usage des tablettes et des smartphones a connu une expansion spectaculaire, les puces x86 d'AMD et Intel n'ont pas encore fait leur entrée dans ces terminaux. Le futur système d'exploitation Windows 8 de Microsoft pour PC et tablettes, attendu plus tard cette année, tournera à la fois sur processeurs x86 et ARM. « La possibilité d'utiliser ses brevets sur des éléments extérieurs permettra à AMD de s'adapter rapidement à ce marché qui ne cesse d'évoluer, » a déclaré Mark Papermaster. Les fabricants de terminaux veulent des puces spécialisées pour effectuer des tâches particulières, et AMD dispose d'un capital de brevets très riche dans les domaines graphiques et de l'affichage, qui va lui permettre de concevoir ces types de produits. Par exemple, le processeur graphique d'AMD peut être combiné à un brevet de tierce partie pour développer une puce destinée à des appareils multimédias. « C'est toute la dynamique de conception et de production des puces qui est en train de changer, » a déclaré le CTO d'AMD.

Proposer une architecture complémentaire à x86

Jusque-là, les tentatives d'AMD pour entrer dans le marché de la tablette ont été infructueuses, alimentant même certaines spéculations selon lesquelles le fondeur serait prêt à utiliser des puces ARM sous licence. AMD et ARM ont une relation commune autour de l'OpenCL, un ensemble d'outils de programmation standardisés pour l'exécution de tâches en parallèle. L'OpenCL pourrait potentiellement permettre aux programmes d'interopérer dans des architectures combinant les processeurs AMD d'une part, les circuits graphiques et les puces ARM d'autre part. « Néanmoins, même si AMD s'ouvre à des architectures alternatives, son activité principale reste centrée autour du x86, et nous restons engagés envers cette architecture, » a précisé le CTO. « L'x86 est au coeur de notre activité aujourd'hui, et le restera demain, en 2014 et au-delà, » a t-il déclaré.

« AMD livre environ 20 millions de processeurs x86 chaque trimestre. Le fondeur possède déjà une longue histoire avec l'architecture d'Intel, et il aurait du mal à changer son fusil d'épaule rapidement pour s'orienter vers un nouveau design, » a déclaré Dean McCarron, analyste principal chez Mercury Research. « Le véritable atout d'AMD repose sur sa technologie graphique, une architecture difficile à reproduire pour ses rivaux, » a estimé l'analyste. AMD voudrait étendre cette technologie à un éventail plus large de terminaux, téléviseurs compris. « Tout type d'accord aurait une incidence sur la décision d'AMD quant à employer ou non la technologie ARM, » a déclaré Nathan Brookwood, analyste principal chez Insight 64. Si un client aussi important qu'Apple demandait à AMD d'inclure l'architecture ARM dans ses puces, certainement que le fondeur en envisagerait la possibilité. «  Ce que fera AMD avec ARM, va se jouer au coup par coup, » a déclaré l'analyste d'Insight 64. « Pour les petits clients, ponctuels, je ne vois pas le fondeur s'embarquer dans cette direction. »

Un marché AMD déjà très concurrentiel

Selon les analystes, le fait qu'AMD ait décidé de s'ouvrir à d'autres architectures est le signe que le fondeur veut modifier le rapport concurrentiel qu'il entretient avec Intel. Grâce au x86, les deux entreprises ont caracolé en tête pendant de nombreuses années et Intel domine encore les marchés du PC et du serveur. « Mais en même temps, AMD ne veut pas dépendre uniquement de cette dualité dans laquelle il se trouve avec le x86, » a déclaré Nathan Brookwood. « AMD veut faire quelque chose qui lui est propre. » Le marché ARM est toutefois devenu très concurrentiel avec des acteurs comme Nvidia qui travaille également sur des architectures multicoeurs et circuit graphique (la puce Tegra3 par exemple). AMD peut toutefois compter sur son expertise dans les puces pour serveurs pour faire la différence. Reste à savoir si AMD pourra dégager les ressources nécessaires pour développer de concert trois architectures : x86, Radeon et ARM.

(...)

(06/02/2012 13:03:33)

Le fonds national d'amorçage augmenté de 200 millions d'euros

Ce FNA est opérationnel depuis quelques semaines et vient d'être doté de 200 millions supplémentaires. Il complète un autre fonds créé par l'Etat, le FSN PME, créé au 1er juin 2011 et doté de 400 millions d'euros. Ce fonds est destiné aux PME innovantes de taille supérieure à celles accompagnées par le FNA. Ce FSN PME a déjà instruit 50 dossiers a indiqué Eric Besson mercredi dernier. Le FSN doit « prendre des participations directes, jusqu'à 30 % du capital, plafonné à 10 M€, dans le capital de PME innovantes du secteur numérique (cloud, numérisation de contenus, nanoélectronique, logiciel embarqué, e-santé, sécurité des réseaux, systèmes de transports intelligents, ville numérique et e-éducation).»

Ces deux fonds d'Etat, sont les fers de lance du financement des entreprises  l'économie numérique. Ils sont gérés par la Caisse des dépôts.

(...)

(03/02/2012 16:34:06)

L'IBM Watson bientôt opérationnel en France

Système massivement parallèle d'analyses sémantiques et statistiques, le superordinateur IBM Watson, développé par l'équipe de David Ferrucci, a fait sensation en février 2011 en réussissant à participer avec succès au jeu TV Jeopardy. Développé après le projet Deep Blue, un superordinateur spécialisé dans le jeu d'échecs, Watson repose sur la plate-forme processeur Power7 (avec pas moins de 2 880 coeurs), des algorithmes développés pour la recherche et les briques logicielles Content Analytics de Cognos pour l'analyse du langage naturel et Infosphere Big Insight, un framework Hadoop associé à une base Netezza pour digérer la documentation.  Lors de sa journée Innovation à Bois-Colombes, IBM France nous a détaillé les nouvelles ambitions de la plate-forme Watson. Jean-Claude Jesionka, architecte chez IBM France, nous a évoqué devant un simulateur Watson (voir illustration principale), les projets et développements à venir.

Après  les jeux télévisés, IBM a réfléchi à quels usages commerciaux pourrait être utilisée la plate-forme Watson. Quelques pistes sont rapidement apparues. Avec ses capacités à comprendre le langage naturel et à assimiler les données spécialisées, Watson peut assister des médecins pour affiner les diagnostics ou envisager des idées alternatives en analysant simplement les symptômes, les antécédents familiaux et les analyses médicales. L'hôpital du Mont Sinaï à Los Angeles a déjà commencé à travailler, pour une phase de tests, avec le Watson. Les médecins peuvent renseigner sur une console le superordinateur qui propose ensuite très rapidement des pistes de diagnostics. Il s'agit bien d'un simple assistant, mais très bien renseigné, car il est nourri des dernières publications médicales. Watson n'a pas simplement été placé dans un hôpital, il a été adapté aux problématiques médicales avec des algorithmes spécifiques.

Traiter les questions d'ordre juridique ou financière

IBM travaille également avec la mutuelle américaine WellPoint, dans le but de trouver les meilleurs traitements médicaux, c'est-à-dire les plus efficaces et les moins chers. D'autres domaines sont aujourd'hui envisagés par IBM comme le corpus juridique, le trading financier et l'économie. Big Blue envisage par exemple de proposer des consultations de Watson en mode service à partir d'une console. Dès cette année, la firme d'Armonk va également commercialiser non pas Watson mais des morceaux de Watson, Content Analytics et Infosphere Big Insight qui sont déjà opérationnels chez certains clients de la solution SPSS. Ce sont ces briques du Watson qui vont être proposées en France cette année.

Si une trentaine de personnes avaient travaillé sur le Watson version Jeopardy, une centaine de personnes sont aujourd'hui rassemblées dans une division d'IBM Software pour personnaliser Watson aux besoins des clients. La démarche est collaborative avec une sélection de clients pour développer des projets. Des partenariats ont ainsi été noués pour le portage de Watson en français qui est actuellement en cours à Montpellier. Le marché francophone sera en effet le second à accueillir la technologie Watson, avant les marchés hispaniques et chinois. Le français a simplement été immédiatement choisi après l'anglais, car la compréhension sémantique est plus facile qu'en espagnol et en mandarin.

Un Watson 2 de la taille d'une tablette

Mais l'avenir de Watson passe par la miniaturisation avec un Watson 2 beaucoup plus compact. Dans une dizaine d'années, Watson sera de la taille d'une tablette. Si on regarde le passé, c'est tout à fait possible, nous a expliqué Jean-Claude Jesionka. « En 1958, nous avions commencé à travailler sur un ordinateur avec l'ambition de battre un champion d'échecs. Nous n'avons réussi à le faire que 30 ans après en 1997, mais nous avons mis moins de 10 ans pour arriver à Watson. Sur le principe, on peut considérer que Watson est un système expert, mais sur le fond beaucoup de choses ont changé. Les systèmes apprenants [comme Watson] sont une des voies sur lesquelles IBM s'est engagé pour gérer les données non structurées.

[[page]]

Avec Watson, IBM veut aller très vite en recherchant des partenariats de co-innovation avec les clients. « Une entreprise nous aide à développer ce projet et on lui laisse l'exclusivité pendant 2 à 3 ans. Passé cette période, la propriété intellectuelle reste chez IBM et peut enrichir d'autres programmes ».

Des puces neuronales à l'étude

Le programme Watson est entré dans sa deuxième phase avec des applications commerciales et à terme des versions appliances ne sont pas exclues même si aujourd'hui, il est difficile de faire rentrer 2 880 coeurs dans un seul serveur. Avec un seul coeur Power7, il faudrait 2 heures de traitement à Watson pour répondre à une seule question. Il reste donc encore du chemin à parcourir et IBM explore plusieurs voies pour y arriver avec notamment les puces silicium inspirées des neurosciences, les SyNAPSE.

(...)

(03/02/2012 11:47:01)

Le cloud va-t-il diviser en 2 les départements informatiques ?

38% des CIO de la région DACH (Allemagne, Autriche et Suisse) s'attendent à une augmentation de leur budget IT pour 2012. C'est ce qui ressort de l'enquête annuelle IT-Trends 2012 de Capgemini. En Suisse, ce chiffre d'élève à 31%. Au contraire, plus de 42% des CIO suisses estiment qu'ils devraient disposer d'un budget IT 2012 similaire à celui de 2011 contre 33% pour l'ensemble de la région DACH.

Quel rôle pour le CIO dans le futur ?

Dans le même temps, les analystes de Capgemini ont interrogé les CIO sur le rôle du CIO aujourd'hui et dans le futur. Si aujourd'hui 51,2% des CIO s'estiment plus comme un partenaire du business et 48,8% d'entre eux se voient comme un prestataire de services qui ne fait que répondre aux demandes, près de 82% des CIO estiment que dans le futur, ils seront un partenaire du business. En outre, si aujourd'hui  la plupart des CIO se voient comme une personne chargée d'optimiser les processus métier plus qu'un innovateur, dans le futur, ce rôle devrait s'inverser.

Deux départements informatiques en 2022 ?

Quand on les interroge sur le futur du département IT dans 10 ans (voir graphique), plus de 42% des CIO estiment qu'il y aura en fait 2 divisions informatiques: un département IT technique et un département informatique pour les processus métiers. 38% des personnes interrogées considèrent que dans la mesure où la plupart des services informatiques seront obtenus via le cloud, le département informatique sera réduit au minimum et son rôle sera de définir les exigences et d'intégrer les services.

ICTjournal.ch (...)

(03/02/2012 09:56:46)

Un datacenter dans un monument historique

La Société d'Economie Mixte de Construction du Département de l'Ain (Semcoda) est la troisième SEM de France. Construisant un millier de logements par an, elle en gère 24 000 dans 369 communes, 6 départements et deux régions grâce à ses presque 500 collaborateurs. En mai 2011, la Semcoda a installé son nouveau siège social dans un bâtiment classé comme monument historique, une ancienne caserne située à Bourg-en-Bresse (Ain).

Ce siège social devait bien sûr être doté d'un datacenter. Or la réglementation sur les monuments historiques est des plus contraignantes : il était en effet totalement exclu de placer quoique ce soit sur les façades ou les toits, y compris des évacuations de climatiseurs. De plus, la caserne étant en milieu urbain et utilisée prioritairement pour des bureaux, le bruit était un problème particulier supplémentaire : il fallait empêcher la résonance dans le bâtiment des climatiseurs. Bien entendu, la salle devait être parfaitement redondée et installée comme n'importe quel autre datacenter moderne.

En six mois, l'intégrateur spécialisé APL a réussi cette installation en se coordonnant étroitement avec les entreprises en charge de la réhabilitation du bâtiment. Le datacenter a été refroidi grâce à des aérocondensateurs à eau (dry coolers) installés à soixante mètres du bâtiment à refroidir, en sous-sol, avec extraction en surface de la chaleur. Le coût du projet n'a pas été dévoilé. (...)

(02/02/2012 16:52:57)

Attention au prix des outils BI en mode SaaS

Le développement des demandes de cloud ou de SaaS n'est pas une surprise. De plus en plus de responsables financiers ou informatiques sont tentés de faire appel à ce type d'offres pour répondre à une augmentation des besoins en Business Intelligence. Deux raisons à cela, les faibles couts de démarrage ou de déploiement et l'absence de compétences nécessaires en interne pour construire leurs propres solutions analytiques.

La migration des entreprises vers le cloud pour le décisionnel se fait très vite. Selon une étude Gartner, un tiers des personnes interrogées (1 364 responsables IT) prévoient d'utiliser des offres SaaS en matière de BI dans les 12 prochains mois pour certaines divisions métiers. Cependant, les directeurs financiers ont un peu de mal à savoir combien leur coutera au final l'utilisation de ces offres. Les logiciels achetés comme un service peuvent généralement être passés comme un investissement, plutôt qu'un achat d'actif dans les bilans financiers. Les acheteurs pensent souvent que le SaaS est cher, mais la réalité est plus compliquée. Le modèle de coûts de Gartner montre que le SaaS peut être moins cher au cours des cinq premières années, mais pas par la suite. Les avantages à long terme se trouvent ailleurs - notamment dans le flux de trésorerie et la réduction des coûts de support, indique l'étude.

« Les professionnels sont souvent frustrés par la longueur des cycles de déploiement, les coûts, la complexité des processus de mise à niveau des infrastructures informatiques demandés par les solutions de BI  sur site » a déclaré James Richardson, directeur de recherche chez Gartner. « La BI dans le cloud est perçue comme offrant une vitesse de déploiement à faible cout, même si cela reste à prouver ». précise l'analyste. Il constate également que « si l'intérêt est croissant, le marché reste confus sur ce que sont les solutions SaaS et cloud dans le BI et ce qu'elles apportent ».

(...)

(01/02/2012 11:55:02)

Vers l'abandon du support d'Hyper-V de Microsoft par OpenStack ?

« Microsoft est déterminé à travailler avec la communauté pour résoudre les problèmes actuels entre Hyper-V et OpenStack », explique la firme de Redmond dans un communiqué. Ce commentaire fait suite à une suggestion sur un newsgroup de Thierry Carrez, développeur de l'équipe de sécurité d'OpenStack, que le code de la technologie Hyper-V soit supprimé de la version d'OpenStack Compute en cours d'élaboration, connue sous le nom d'Essex et qui sera livrée au deuxième trimestre 2012.

Le message titré « couper le bois mort d'Essex » explique qu'il faut supprimer le code Hyper-V « réputé cassé et pas entretenu ». La suppression du code devrait être décidée dans les prochains jours par les 45 membres d'OpenStack. Ils devront regarder si cela ne modifie pas les fonctionnalités de la prochaine version de la plateforme cloud en Open Source.

S'il est enlevé, il ne manquera pas à beaucoup de gens, souligne Joshua McKenty, PDG de Piston Cloud Computing. « Je ne vois pas de déploiement, ni de projet sur cet hyperviseur », ajoute-t-il. Joshua McKenty a été l'architecte technique de la plateforme cloud Nebula pour la NASA et il est très impliqué dans la communauté OpenStack.

Une dégradation pour manque d'entretien

Il a rappelé que Microsoft avait signé un contrat avec un partenaire pour faire le travail d'intégration dans OpenStack, « mais ils n'ont jamais vraiment fini », précise le responsable. Ce non-aboutissement peut avoir des raisons simples, selon Joshua McKenty. Il suffit par exemple que des chefs de projets soient mutés pour que le projet ne soit pas continué ou suivi. Il ajoute que Microsoft peut avoir également décidé de se concentrer sur sa plateforme Azure pour déployer des clouds privés et publics.

Si Microsoft veut vendre des logiciels serveurs pour les fournisseurs de services cloud utilisant OpenStack, le manque d'intérêt pour son hyperviseur pourrait devenir problématique, explique un analyste. « Cela signifie que les gens ne construiront pas de cloud sur Windows, comme architecture de base », constate James Staten, analyste chez Forrester Research. Hyper-V est intégré avec la licence Windows Server Entreprise et cela constitue un manque d'intérêt pour la communauté OpenStack qui pense aussi que les fournisseurs de services cloud n'utiliseront pas Windows Server dans leurs déploiements. « Ce n'est pas surprenant, constate James Staten. Si vous construisez une solution basée sur de l'Open Source, vous allez commencer par des éléments qui n'ont pas de licence du tout ».

Toutefois, il explique que de nombreux fournisseurs de services clouds sont en train de construire deux offres : l'une utilisant un logiciel Open Source et la seconde élaborée à partir de produits commerciaux qui sont utilisés dans les entreprises et pourraient donc être plus attrayants pour les clients d'entreprise. Actuellement, VMware a le gros de la part de marché pour les services de cloud destiné aux entreprises, précise l'analyste.
(...)

< Les 10 documents précédentsLes 10 documents suivants >