Flux RSS

Windows

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

1087 documents trouvés, affichage des résultats 381 à 390.

< Les 10 documents précédentsLes 10 documents suivants >


(06/03/2009 15:57:09)

45% des grandes entreprises déjà converties à la virtualisation, selon Forrester

Pour Forrester, la virtualisation fait figure d'eldorado informatique sur le marché des grands comptes (de 1 000 à plus de 20 000 salariés) tant américains qu'européens. Du moins, c'était le cas au troisième trimestre 2008 lorsque les informations publiées aujourd'hui furent collectées. Les données recueillies auprès d'un millier de responsables indiquent aussi qu'elle s'inscrit dans une nette remise en cause des "technologies PC" traditionnelles. Parmi les 500 entreprises interrogées, dont 45% disposent de parcs de 100 à plus de 1 000 serveurs x86, 46% ont déjà des environnements virtualisés en service, 9% comptent en installer d'ici le troisième trimestre 2009 et 29% s'y intéressent de près et prévoient des budgets pour le faire. Ces chiffres restituent une emprise de la virtualisation supérieure à ce que d'autres études montrent. 44% de ceux qui virtualisent le font depuis deux ans Dans les entreprises qui ont déjà sauté le pas, la virtualisation concerne 31% des instances de leurs serveurs x86. Ce taux devrait atteindre, selon elles, 54% dans moins de deux ans. Forrester constate par ailleurs que les projets de virtualisation concernent aussi de plus en plus d'autres plateformes que celles qui reposent sur l'architecture x86. Globalement le taux de virtualisation aura augmenté de 74% entre le troisième trimestre 2008 et la mi-2009. Parmi ceux qui pratiquent la virtualisation, 44% le font depuis deux ans environ, 19% depuis un an et 6% depuis quelques mois. Sur les plateformes x86, VMware préside largement aux choix et, semble-t-il, pour longtemps. Les réponses indiquent que les entreprises s'orientent vers des parcs virtualisés hétérogènes où VMware est cité dans 66% des cas, Microsoft dans 53% et Citrix dans 35%. Fait intéressant, en 2010, VMware disposerait encore de 59% des suffrages alors que Microsoft n'obtiendrait plus que 44% et Citrix 30%. Des entreprises motivées par la réduction des coûts [[page]] Motivées à 70% par une volonté de réduction des coûts et, aussi, à 57% par une amélioration de l'administration de leur parc, les entreprises s'intéressent également de très près aux alternatives au modèle micro-informatique traditionnel. En additionnant les entreprises qui ont déjà mis en place des solutions de remplacement et celles qui l'auront fait d'ici neuf mois, le taux obtenu dessine une profonde mutation. Ainsi, l'hébergement d'applications sur serveurs concerne 31% d'entre elles, la virtualisation sur le poste de travail 27%, la virtualisation des postes de travail à partir d'un serveur 26%, la virtualisation des applications clientes (streaming) 22% et le déploiement de clients légers 21%. Forrester n'indique pas si la crise profonde que traversent les entreprises actuellement a des effets sur tous ces projets. On peut toutefois supposer qu'elle n'influe pas sur les tendances de fond et, même, qu'elle stimule ces projets qui sont tous focalisés sur une optimisation des coûts. (...)

(05/03/2009 17:04:07)

Seven n'oubliera pas les entreprises

Windows 7, qui se devrait arriver début 2010, sera doté de fonctions pour répondre à des problèmes professionnels tels la gestion de parc, la mobilité et la sécurité. Microsoft semble avoir pris la mesure de l'échec de Windows Vista auprès des entreprises, les seules à avoir la liberté de choisir entre une migration vers ce système et un statu quo avec Windows XP. Les dernières estimations portent sur un taux d'adoption de moins de 10%, 87% des entreprises préférant rester avec Windows XP. Contrairement à Vista, dont la conception était axée sur la perception qu'avait Microsoft des attentes du grand public, Windows 7 fait l'objet de soins particuliers - au moins du point de vue de la communication - pour le rendre attrayant auprès des professionnels. Il est ainsi question d'une version 2.0 de Windows PowerShell avec des extensions spécifiques pour faciliter le déploiement d'un parc, son administration et la prise en compte en son sein d'ordinateurs mobiles. Ces derniers devraient bénéficier du cryptage des données et de sécurisation. (...)

(05/03/2009 11:05:31)

Antitrust : Bruxelles lève la surveillance permanente de Microsoft mise en place en 2004

Pour Microsoft, Bruxelles rime rarement avec bonne nouvelle. La décision publiée le 4 mars par la Commission européenne ne devrait en être que plus agréable pour le géant du logiciel. L'exécutif communautaire vient en effet d'estimer qu'il n'était désormais plus nécessaire qu'un mandataire observe en permanence les agissements de l'éditeur. La désignation de ce mandataire avait été décidée après que la Commission eut condamné Microsoft, en 2004, à une amende de 497 M€ pour abus de position dominante. Le géant de Redmond devait, en plus de cette sanction pécuniaire, communiquer certains protocoles de communication censés permettre à ses concurrents de concevoir des produits parfaitement interopérables avec les serveurs Windows. C'est précisément pour surveiller le respect de cette obligation que Bruxelles a entendu mettre en place un instrument de contrôle indépendant : le mandataire, en la personne de Neil Barrett. Le mandataire fort occupé jusqu'en 2008 Icelui a eu, on s'en souvient, bien des récriminations à formuler à l'endroit de Microsoft, qui s'est montré fort peu enclin à se plier aux exigences européennes. Dans un premier temps, il demandait ainsi, pour accepter de céder ses protocoles, 3,87% des revenus issus d'un produit conçu grâce à sa documentation. Trois ans plus tard, ce taux était ramené à 0,7% après que la Commission eut manifesté son mécontentement face à un tarif jugé « déraisonnable ». Dans un ultime effort, Microsoft proposa l'accès aux informations d'interopérabilité contre un paiement forfaitaire de 10 000 $, avec une option pour l'exploitation commerciale fixée à 0,4% des revenus afférents. Cette dernière initiative arrivait néanmoins trop tard pour empêcher Bruxelles de condamner à nouveau l'éditeur, jugé défaillant dans l'exécution des obligations qui pesaient sur lui depuis 2004. En février 2008, Microsoft écopait ainsi d'une nouvelle amende - de 899 M€ cette fois. Depuis, les membres de la Commission semblent s'être drapés d'une plus grande bienveillance à l'égard du comportement de l'éditeur dans ce dossier. La décision publiée le 4 mars souligne ainsi « le changement de comportement de Microsoft ». L'exécutif européen note entre autres qu'une « première série d'informations a déjà été fournie [...] et que les tiers sont davantage en mesure de faire valoir leurs droits auprès de juridictions nationales, ainsi que le prévoient les accords de licence qu'ils passent avec l'intéressé ». Par conséquent, la mission du mandataire peut prendre fin, la Commission estimant que « l'assistance technique dont elle a besoin revêt à présent un caractère plus ponctuel ». Les efforts de Microsoft finalement payants [[page]]Les démarches entreprises depuis plusieurs mois par Microsoft en faveur de l'interopérabilité auront sans doute joué un rôle dans l'inflexion communautaire. En février 2008, quelques jours avant sa seconde condamnation, le groupe de Redmond annonçait l'ouverture des API et des protocoles de communication de ses produits les plus diffusés, dont Vista, Office 2007, Windows Server 2008 et Sharepoint Server 2007. D'autres initiatives ont suivi : documentation d'ODF dans le SP2 d'Office, réutilisation des portlets SharePoint dans d'autres portails, création d'outils de conversion de documents Open XML, etc. Des décisions accompagnées d'un discours vantant sans cesse les mérites de l'interopérabilité, comme en témoignait le billet signé par Bernard Ourghalian, directeur technique et sécurité de Microsoft France, sur le blog Experts du MondeInformatique.fr en septembre 2008. Ou comme le rappelait encore l'éditeur, le mois dernier, à l'occasion des Techdays. Malgré ce changement d'attitude, la Commission européenne n'entend pas lever tout contrôle - il « demeure nécessaire ». Le mandataire sera ainsi remplacé par des consultants techniques qui interviendront sur demande, de façon ponctuelle. Par ailleurs, les ennuis de Microsoft sur un autre dossier ne font que commencer. Bruxelles enquête en effet sur un potentiel autre abus de position dominante, constitué par l'avantage anticoncurrentiel dont bénéficierait Internet Explorer en étant inclus dans Windows. Lancée suite à une plainte d'Opéra, cette action a incité d'autres éditeurs - Mozilla et Google - à se rallier aux arguments soulevés par le demandeur. (...)

(25/02/2009 17:05:43)

Steve Ballmer promet une version finale de Windows Azure avant fin 2009

L'offre de 'cloud computing' de Microsoft devrait sortir dans une version finalisée au moment de la prochaine conférence développeurs, la PDC de novembre prochain. Azure, nom de ce Windows dans les nuages et des services associés, avait justement été dévoilé lors de la PDC 2008 de Los Angeles. Dans un entretien avec des analystes financiers sur les perspectives futures, le PDG de Microsoft Steve Ballmer a affirmé que l'éditeur sera en mesure de commercialiser cette nouvelle offre avant la fin de l'année. Toutefois, aucun détail n'a été donné pour l'heure sur la tarification. Microsoft a juste laissé entendre qu'il respecterait le principe de la tarification à l'usage, mais que les clients acceptant de payer à l'avance pourraient bénéficier de réductions de tarifs. (...)

(25/02/2009 16:07:27)

Un datacenter à la sauce netbook bientôt chez Microsoft

Lors de l'une de ses réunions bisannuelles avec les analystes de Wall Street, Steve Ballmer, le PDG de Microsoft, a annoncé que sa société prévoyait le développement d'une déclinaison de Windows Server spécialement dédiée aux serveurs équipés de processeurs pour netbooks. Celle-ci, baptisée Windows Server Foundation Edition, devrait être disponible d'ici un mois ou deux. Dans le même temps, lors de la TechFest à Redmond, Jim Larus, directeur de l'architecture logicielle des futures salles serveurs, une division de Microsoft Research, a présenté un prototype de datacenter fonctionnant avec des processeurs pour netbooks. Ces processeurs dispensent une puissance équivalente à environ un tiers de celle des processeurs couramment installés dans les serveurs, alors qu'ils ne requièrent qu'entre un dixième et un cinquième de la consommation électrique des puces traditionnelles. Une aubaine, mais construire un datacenter entier nécessiterait tout de même de multiplier le nombre de puces ; le gain n'est donc pas évident. Mais Jim Larus en est persuadé, même en multipliant par trois le nombre de processeurs nécessaires dans une salle de serveurs, l'utilisation de ces puces réduirait de façon significative la consommation électrique totale. Et ce, d'autant plus facilement qu'avec une dissipation thermique moindre, ces processeurs ne génèrent pas de gros besoins en matière de climatisation. Les outils d'économie d'énergie des netbooks exploités par les serveurs ? Lors de sa démonstration, Jim Larus a utilisé un châssis traditionnel équipé avec 50 processeurs bicoeurs branchés directement sur une prise d'électricité standard et sans gros ventilateurs associés. Et pour aller plus loin dans l'économie d'énergie, il a démontré comment les capacités de mise en veille développées par ces puces pour préserver la batterie des portables peuvent servir dans un serveur en fonction de la charge de travail. Pour autant, les serveurs à bas coût ainsi conçus ne sont pas immédiatement utilisables. Les processeurs ayant été pris tels quels, les cartes leur servant de support intègrent des extensions inutiles dans un serveur (comme des sorties vidéo) et occupant plus de place que ce qui est habituellement souhaitable. Plus gênant, ces puces ne sont pas aussi rapides que les processeurs habituellement installés dans les serveurs. Certaines tâches risquent donc de ne pas pouvoir être effectuées sur ces serveurs « low cost ». Nombre d'améliorations et de tests sont donc encore nécessaires. (...)

(24/02/2009 16:28:25)

Red Hat embrasse toutes les facettes de la virtualisation

Red Hat confirme et détaille les grands traits de sa stratégie de virtualisation. A compter de la prochaine version de RHEL (Red Hat Linux Enterprise), la 5.4, l'hyperviseur KVM (Kernel-based virtual machine) remplacera Xen, l'actuel hyperviseur implanté par Red Hat au dessus de RHEL. L'éditeur champion du code source libre proposera aussi son hyperviseur indépendamment de RHEL. Il prévoit également de livrer deux outils d'administration pour les environnements virtualisés, un pour les serveurs, l'autre pour les postes clients. Pour Red Hat, c'est le meilleur moment. Celui des promesses. L'éditeur s'est engagé à les tenir d'ici 3 à 18 mois (soit au plus tard août 2010). Souhaitons qu'il ait appris de ses expériences du passé. En novembre 2005, Red Hat avait promis l'implantation de l'hyperviseur Xen pour 2006. Elle n'a été disponible qu'en mars 2007, avec six mois de retard. Mais, en septembre dernier, Red Hat a acheté pour une centaine de millions de dollars l'éditeur israélien Qumranet qui avait, dans son escarcelle, d'intéressants outils pour l'administration de la virtualisation. De plus, la communauté Linux s'est attelée à la virtualisation et s'est focalisée sur l'intégration de KVM au noyau Linux. Résultat, KVM est partie prenante du noyau Linux depuis sa version 2.6.20. A la suite de Fedora 10, la version communautaire de la distribution Linux de Red Hat qui intègre KVM depuis fin novembre dernier, RHEL 5.4 sera livré avec KVM. D'ici à cet été, cette 5.4 succèdera à RHEL 5.3 annoncé fin janvier avec Xen comme hyperviseur. Red Hat s'engage à assurer le support des utilisateurs de Xen sur RHEL 5.x jusqu'en 2014. Une version autonome de l'hyperviseur KVM Red Hat prévoit aussi de proposer Red Hat Enterprise Virtualization (RHEV) Hypervisor, une version autonome de l'hyperviseur KVM. Face à la pléthore d'hyperviseurs déjà proposée, Red Hat met en avant les qualités techniques de son offre : d'un côté une empreinte mémoire de 64 Mo, de l'autre la possibilité d'allouer jusqu'à 16 coeurs et 96 Go à une machine virtuelle (VM). Cette brique de base posée, Red Hat livrera RHEV Manager for Servers. L'outil, présenté comme capable de gérer un nombre considérable de VM (plusieurs milliers) est décrit comme complet : gestion des migrations, y compris à chaud, administration des ressources en temps réel et gestion du cycle de vie. Pour les postes clients, RHEV Manager for Desktop reposera sur SolidICE et SPICE, deux technologies acquises avec Qumranet. SolidICE est une infrastructure de postes virtuels (VDI, Virtual desktop infrastructure). Quant au protocole SPICE, il permet d'optimiser les flux multimédias sur le réseau. (...)

< Les 10 documents précédentsLes 10 documents suivants >