Flux RSS
Infrastructure serveur
2924 documents trouvés, affichage des résultats 641 à 650.
< Les 10 documents précédents | Les 10 documents suivants > |
(01/02/2011 14:40:36)
Défaut de conception du Sandy Bridge : Intel cesse ses livraisons
Intel a indiqué hier avoir interrompu les livraisons du chipset utilisé dans sa dernière génération de processeurs Core, après la découverte d'un défaut de conception. Le chipset incriminé a été intégré dans des ordinateurs équipés de processeurs Core de prochaine génération basés sur l'architecture Sandy Bridge et annoncés début janvier pendant le Consumer Electronics Show de Las Vegas. Le problème de conception a été réparé, a déclaré le fondeur.
Une mise en jour fin février
« Les processeurs Core ne sont pas touchés, mais les clients ayant acheté des systèmes équipés de processeurs quad-core de deuxième génération Core i5 et Core i7 pourraient être affectés par le problème », a ajouté Intel. Il affirme cependant que « les consommateurs peuvent continuer à utiliser leurs systèmes en confiance » le temps qu'il fournisse, en concertation avec ses partenaires, une solution définitive, peut-être sous forme d'une puce qui résoudrait le problème. « L'entreprise prévoit de livrer une mise à jour du chipset à ses clients à partir de la fin du mois de février et pense pouvoir achever la procédure en avril. » Intel s'engage sur la qualité de ses produits, a jugé utile de rappeler le fabricant dans un communiqué.
Les ports Serial ATA en cause dans la série-6
Le problème de conception a été découvert dans le chipset 6-Series, nom de code Cougar Point, utilisé dans des configurations intégrant des processeurs Sandy Bridge, qui ont commencé à être livrées à partir du 9 janvier dernier. En cause, les ports Serial-ATA (SATA) des chipsets qui pourraient se dégrader au fil du temps et affecter les performances ou les fonctionnalités des périphériques de stockage, disques durs notamment. « L'un des symptômes repéré sur ces chipsets défectueux consiste en des erreurs de débit lors du transfert des données », a déclaré Steve Smith, vice-président d'Intel et directeur des opérations pour les PC. « Il est peu probable que les ordinateurs manifestent ce type de problème rapidement, mais au fil du temps, des transferts de données intensifs pourront provoquer davantage d'erreurs », a indiqué Steve Smith. Selon Intel, la meilleure chose à faire était de résoudre le problème aussi rapidement que possible, avant que le chipset ne soit livré dans les PC destinés au grand public.
Un impact sur le volume de PC Sandy Bridge
A ce jour, l'entreprise n'a reçu aucun retour concernant le processeur défectueux, livré seulement dans quelques PC quad-core de type Core i5 et Core i7, et les responsables disent que peu de clients ont été affectés. « Le chipset avait passé les tests et la validation effectuée en interne sans problème, ainsi que ceux normalement réalisés par les fabricants de PC », a indiqué le vice-président d'Intel. Le problème a été identifié dimanche dernier, alors que le fondeur cherchait à mieux comprendre un problème de température, de voltage et de dégradation au niveau des circuits électriques.
Intel continue à expédier des processeurs Sandy Bridge, à part la série-6, mise en attente, comme l'a précisé Steve Smith. Mais le chipset et les processeurs Sandy Bridge sont associés dans de nombreux modèles de PC, si bien que les responsables d'Intel ont reconnu que l'interruption de livraison du chipset pourrait affecter indirectement les ventes de PC Sandy Bridge. Ainsi, Steve Smith a confirmé que la commercialisation de PC portables intégrant des puces dual-core Sandy Bridge, prévue dans quelques semaines, pourrait être retardée. Les processeurs Core de seconde génération basés sur la micro architecture Sandy Bridge comprennent un certain nombre d'améliorations par rapport à leurs prédécesseurs. C'est surtout le premier processeur à associer CPU et GPU sur une seule puce, un design qui améliore les performances graphiques et optimise le fonctionnement des applications.
300 millions de dollars de recettes en moins
Le problème de conception devrait réduire les recettes d'Intel d'environ 300 millions de dollars au premier trimestre 2011, compte tenu de l'interruption de la production de la puce défectueuse et au lancement de la fabrication des puces modifiées. Même si ses recettes en année pleine ne devraient pas être très affectées, selon lui, c'est tout de même une mauvaise nouvelle pour le fondeur qui a la réputation de construire des processeurs sans défaut. Celui-ci comptait également réaliser environ un tiers de son chiffre d'affaire avec ces puces Sandy Bridge sur l'exercice fiscal 2011. (...)
Lotusphere 2011 : IBM a les yeux tournés vers le cloud et l'intégration
« Get Social, Do Business » (Aller vers le social, c'est faire des affaires), tel est le leitmotiv du millésime 2011 de Lotusphere d'IBM à Orlando. Et l'aspect social est décliné sur l'ensemble des métiers de l'entreprise, relation avec le client, échange et partage entre centres d'activités, webconferencing, boîte à idée, etc. Pour mettre en perspective cette montée en puissance du partage de compétences, IBM avait invité Kevin Spacey en guest star. Ce dernier a rappelé son intérêt de voir émerger et de dénicher de nouveaux talents à travers son site triggerstreet.com (sorte de mymajor company, qui demande une contribution aux internautes pour financer les premiers longs métrages). Il est aussi connu pour avoir produit le film relatant la vie de Mark Zuckerberg, PDG de Facebook, « The social network », qui a obtenu 6 nominations pour la prochaine cérémonie des oscars.
La bureautique dans les nuages
Après le show bien rôdé, place aux annonces. La première est la disponibilité au deuxième semestre 2011 de la suite bureautique Lotus Symphony (reposant sur une base du logiciel Open Source Open Office) en mode cloud. Cette version hébergée se décline en traitement de texte, tableur et outil de présentation. Elle sera accessible aux utilisateurs de Lotus Live et entre en concurrence directe avec les offres d'Oracle, Microsoft et Google. On retrouve ainsi des fonctionnalités comme le partage et la modification de document en temps réel et en simultané. Jeff Schick, vice-président Social Software d'IBM a indiqué que la suite en version cloud serait payante, comme une option au sein de la plateforme en ligne LotusLive. Aucune précision n'a été cependant apportée sur le montant de cette option, mais le prix devrait être suffisamment agressif pour être compétitif. IBM souhaite qu'une majorité de ces clients migrent vers cette solution. Une version « technical preview » est déjà disponible pour les développeurs pour travailler sur l'intégration et l'enrichissement des fonctionnalités.
Renforcer le dialogue avec les applications d'entreprises
Pour améliorer les offres collaboratives, l'accent a été mis à Lotusphere sur une plus grande intégration entre les services proposés par IBM et les applications d'entreprises. La semaine dernière, Big Blue avait ainsi annoncé des passerelles entre LotusLive et SugarCRM et Ariba, pour accompagner le développement du « social commerce », capable de dialoguer entre les revendeurs et les partenaires commerciaux. Pour accélérer ce processus d'intégration et d'adoption au sein de l'entreprise, IBM propose un ensemble d'outils basés sur des API qui se chargent d'agréger le contenu des différentes applications et de le délivrer au sein d'un framework rénové. Jeff Schick admet s'être inspiré de Facebook pour proposer le système « streaming activity ». Sur la même interface, le collaborateur dispose de sa messagerie et de son flux d'informations provenant des applications mis en mode collaboratif (Twitter, Facebook, mais également des ERP comme SAP). « Cela évite de basculer d'une application à une autre, le collaborateur peut interagir directement sur l'information », précise le responsable. Ce framework, qui peut se définir comme une extension de la solution Lotus Connections, s'adapte à l'ensemble des postes clients, y compris les smartphones ou les tablettes. Il s'agit aussi de la première étape du projet Vulcan, présenté lors de l'édition précédente de Lotusphere.
Le co-CEO du constructeur canadien RIM, Jim Balsillie, a tenu à présenter la disponibilité de ce framework sur la tablette maison, le Playbook. Les autres constructeurs ou éditeurs ne sont pas oubliés. La disponibilité sur iPhone et iPad, ainsi que l'interopérabilité avec Android et Symbian est également assurée pour l'application Lotus Live Notes Traveler.
Illustration : Séance de questions/réponses, de gauche à droite, Jim Balsillie, co-CEO de RIM, Alistair Rennie, General Manager de Lotus Software et Collaboration Solutions, Jeff Schick, Vice-Président de Social Computing Software, Kevin Canaugh, Vice-Président Messaging et Collaboration Software, et Larry Bowden, Vice-Président de l'activité Portail et Web Experience Software.
Crédit Photo: D.R. (...)
Microsoft pousse Intel à produire des puces Atom 16 coeurs
Il y a une « énorme opportunité » pour améliorer l'efficacité énergétique en utilisant des serveurs basés sur des petites puces de faible puissance telles que les modèles Atom d'Intel et Bobcat d'AM, a déclaré Dileep Bhandarkar, un ingénieur travaillant pour la Global Foundation Services de Microsoft, qui gère les centres de calcul de la firme de Redmond. Ces petits processeurs consomment peu d'électricité, car ils ont été conçus à l'origine pour équiper des ordinateurs mobiles comme les netbooks. Mais, pour certaines charges de travail, ils sont aussi plus économes en énergie que les processeurs pour serveurs comme les puissantes puces Intel Xeon, a indiqué Dileep Bhandarkar lors d'un exposé au centre de conférence Liney Group dans la Silicon Valley. Les datacenters de Microsoft alimentent les différents services en ligne de l'éditeur comme Bing, Hotmail et Windows Live Messenger, ainsi que Windows Azure et les déclinaisons SaaS des applications d'entreprise Sharepoint et Exchange.
Des expérimentations déjà en cours
Ce n'est un secret pour personne que Microsoft et d'autres grands opérateurs de centres de calculs expérimentent les puces de faible puissance. Des fournisseurs comme Dell tentent déjà de vendre des serveurs basés sur le processeur Nano de Via. Les commentaires de Dileep Bhandarkar témoignent du vif intérêt de Microsoft dans ces modèles alternatifs et des demandes spécifiques qui ont été faites à Intel et AMD. Les fondeurs doivent également utiliser une approche plus intégrée de leurs puces a-t-il dit. « Quand vous regardez ces coeurs minuscules, une autre façon de les faire fonctionner d'une manière très efficace est [de ne pas] multiplier les liens et les contrôleurs... Fondamentalement les noyaux minuscules et les systèmes sur une puce devraient aller de concert ».
Microsoft possède un poids suffisant pour faire pression sur ses fournisseurs et obtenir les équipements qui répondent à ses spécifications; Intel est en outre tout à fait capable de concevoir une puce Atom pour serveurs, souligne de son coté Linley Gwennap, fondateur et analyste principal du Linley Group. « Je pense qu'Intel va devoir se résigner à le faire. Nous voyons également les dirigeants d'ARM s'intéresser au marché des serveurs et pour répondre à cette concurrence sur la performance par watt de puissance, Intel devra s'appuyer sur ses processeurs Atom », a-t-il ajouté.
ARM, nouveau challenger sur le marché des serveurs
Dileep Bhandarkar a encore expliqué que Microsoft peut accompagner ARM sur le marché des serveurs, mais cette architecture doit encore faire face à de nombreux obstacles. « Si ARM réussit à nous montrer qu'elle apporte plus de bénéfices qu'une solution x86 nous pourrons considérer la chose, dit-il. Mais le bénéfice en termes de performances doit être absolument significatif ». «La translation de jeu d'instructions est un exercice très difficile », précise Dileep Bhandarkar . « Pour certaines applications où il n'y a pas vraiment de dépendance [à la plate-forme x86, ndlr], ... ARM a quelque chose d'intéressant à proposer et si il réussit pousser Intel et AMD à sortir des solutions x86 plus efficaces, j'en serai très heureux ».
Microsoft a récemment déclaré qu'il allait porter Windows [la version 8 attendue en 2012, ndlr] sur les processeurs ARM pour une utilisation dans des dispositifs mobiles tels que les tablettes. Mais c'est très différent des PC et des serveurs, fait valoir Dileep Bhandarkar, qui doivent exécuter un large éventail de logiciels existants. ARM, qui a décidé de concevoir de puissantes puces pour serveurs et commutateurs, est plus optimiste. La firme note que certains serveurs n'ont besoin que d'une poignée de programmes pour travailler, comme la stack LAMP (Linux, Apache, la base de données MySQL et PHP).
Illustration principale : plaque de coeurs Atom, crédit photo Intel
[[page]]
Linley Gwennap estime que les processeurs ARM pourraient tout à fait jouer un rôle dans les datacenters. Ils sont susceptibles d'être d'abord utilisés par les fournisseurs de services Internet et pour certains usages dans les entreprises. «Il est clair que le logiciel est un gros obstacle, mais certains clients sont prêts à travailler avec ça», précise-t-il. « Cela va prendre du temps, mais si ARM réussit à s'installer dans les centres de calcul, puis à migrer dans les entreprises, il peut y avoir un certain élan ».
Un porte-parole d'Intel a noté que HP vend un serveur multimédia familial avec
un processeur Atom, mais Intel n'a « pas de nouvelles à annoncer » concernant l'arrivée de puces Atom pour les centres de calcul, a-t-il indiqué. Il a également souligné que Google et Microsoft ont, dans le passé, indiqué leurs préférences pour des processeurs plus puissants. « Nous sommes très satisfaits des dernières solutions multicoeurs, et nous pensons que, pour améliorer le design et la performance des processeurs, la course au toujours plus petit n'est pas forcément la meilleure solution », écrivait d'ailleurs Google, une note de synthèse l'an dernier.
Réduire la consommation globale des datacenter
Mais Dileep Bhandarkar affirme de son coté qu'il y a une baisse des rendements lorsque les puces multi coeurs montent en fréquences. Microsoft prête une attention particulière à la performance par watt pour un dollar au moment de sélectionner son matériel, et les gains en performance des dernières puces ne compensent pas assez l'augmentation de la consommation d'énergie. « Donc, pour beaucoup de nos configurations, nous avons généralisé l'usage de puces quatre coeurs » conclut-il.
Chez Microsoft, les processeurs ne sont toutefois qu'une partie de l'équation de l'efficacité énergétique. L'éditeur essaie de considérer ses datacenters dans une approche globale avec un cahier des charges très stricte à destination des constructeurs. La firme a par exemple installé des serveurs sans ventilateurs en optimisant l'agencement des racks dans les armoires. Microsoft demande également à ses fournisseurs des serveurs sans lecteur de CD ou DVD, avec moins de slots DIMM et de ports PCI, et des alimentations électriques répondant aux normes Gold et Platinium de l'Initiative Climate Savers.
Une brique logicielle Intel pour démocratiser le FCoE dans les datacenters
Open FCoE était en test et développement depuis un certain temps, mais cette brique logicielle vient d'être finalisée, après avoir été certifié pour Windows, les distributions Linux Red Hat et Novell, ainsi que les plateformes de stockage d'EMC et de NetApp. Une validation a été également obtenue pour les commutateurs de Cisco et Brocade. Open FCoE est offert comme une mise à jour gratuite des cartes réseaux Intel X520 Server 10 Gigabit Ethernet.
FCoE est une technologie avancée d'Ethernet qui est conçu pour apporter la fiabilité de la connexion Fibre Channel aux infrastructures réseaux majoritairement équipés en Ethernet. Le FC reste la connexion de nombreuses plates-formes de stockage d'entreprise, même si d'autres technologies existent, tels que les NAS (stockage connecté au réseau Ethernet) et l'iSCSI (Internet SCSI). En proposant Ethernet comme moyen d'interopérer les ressources informatiques et celles du stockage, les responsables IT disposeront de plus de flexibilité pour modifier leurs datacenters, que les équipementiers souhaitent unifier.
Un de ces prescripteurs est Cisco, qui propose des produits FCoE depuis juin 2008. Open FCoE sera disponible à tous les clients 10-Gigabit Ethernet, a annoncé Soni Jiandani, vice-président du marketing de l'unité d'affaire Access Server Virtualization de Cisco. « Les clients ne devront plus s'interroger sur quelle type de connexion je dois choisir pour mes serveurs de stockage, NAS, iSCSI ou Fibre Channel. D'où l'idée de créer un seul câble capable d'adapter n'importe quel type de solutions de stockage sur son infrastructure informatique,» précise la dirigeante. Ce type de flexibilité est essentiel pour tirer le meilleur parti de la virtualisation de l'informatique et du stockage, ajoute-t-elle.
Une intégration stratégique pour l'avenir
EMC a qualifié le logiciel Open FCoE pour une utilisation avec son VMAX Symmetrix et ses baies hybrides VNX. Fondés sur une matrice 10 Gigabit Ethernet partagée,la virtualisation des serveurs et les réseaux de stockage convergents sont les ingrédients essentiels d'une infrastructure rentable », a déclaré Paul Brown, vice-président et directeur général des activités Networking Storage d'EMC.
L'adoption de FCoE devrait plus que doubler chaque année, selon l'analyste Seamus Crehan du groupe éponyme. Il y avait environ 300 000 ports FCoE sur commutateurs et 500 000 ports via des cartes livrés à travers le monde en 2010, précise le consultant. C'est encore une part infime des 29 millions de ports Ethernet déployés soit via des adaptateurs ou sur les cartes mères. Les entreprises ont fait preuve de prudence dans l'application de FCoE, car il s'agit d'une nouvelle technologie qui est conçu pour les parties les plus critiques de l'infrastructure informatique, explique l'analyste. Il exige aussi une évolution couteuse des serveurs déjà équipés de lien Gigabit Ethernet vers le 10 Gigabit.
Maintenant qu'Open FCoE est disponible, l'entreprise peut prendre la décision d'investir dans du 10 Gigabit Ethernet, cela sera plus facile pour elle de mettre en oeuvre le FCoE à l'avenir, conclut Seamus Crehan. (...)
Verizon en passe d'acquérir Terremark, fournisseur de services cloud
L'opérateur américain devrait lancer une offre publique d'achat entre le 10 et le 17 février sur toutes les actions ordinaires de Terremark. Les conseils d'administration des deux sociétés ont approuvé la transaction, mais elle est soumise aux actionnaires de la société, ainsi que les avis des autorités de la concurrence. Trois actionnaires ont déjà accepté d'apporter un total de 27,6 % des actions. Verizon prévoit conclure la transaction à la fin de ce trimestre. Son offre de 19 $ par action représentant une prime de 35 % sur le prix l'action Terremark.
Terremark propose des offres de colocation, des infrastructures gérées et des services de cloud computing au sein de 13 datacenters basés aux États-Unis, en Europe et en Amérique latine. La société adresse les grandes entreprises et les agences du gouvernement américain avec des ressources informatiques à la demande. Verizon, avec 220 centres de calcul dans 23 pays, offre des services de cloud à travers sa division Business. L'opérateur a annoncé qu'il s'oriente vers un modèle de prestations basé sur « Everything as a Service ».
Un renforcement de l'offre cloud
Verizon Business fournit des réseaux de télécommunications autour du monde pour de nombreuses grandes entreprises et commence à utiliser cette connectivité et cette capillarité pour fournir des services. Par exemple, l'an dernier l'opérateur a annoncé un produit de Calcul as a Service, permettant aux abonnés de déplacer facilement des charges de travail entre leurs propres infrastructures et celles de Verizon. Au début 2010, il avait également lancé un service de stockage en mode cloud, en s'appuyant sur Nirvanix, un spécialiste dans le domaine. En France, Verizon dispose d'une entité qui vise principalement les grandes entreprises et qui fournit lui aussi des services cloud. Cette opération démontre la montée en puissance des opérateurs télécoms, qui souhaitent devenir les principaux prescripteurs du cloud en entreprise.
Illustration : Datacenter de Terremark
Crédit Photo: D.R
(...)(28/01/2011 10:23:47)Cloud et revendeurs, Eurocloud publie un Livre Blanc sur le sujet
Cette initiative permet de balayer les préventions pouvant exister à l'encontre du cloud chez les revendeurs. La démarche est, comme toujours chez Eurocloud très pro-active. Plusieurs revendeurs, dont certains témoignent dans le Livre Blanc, proposent déjà du Saas. Mais, c'est encore numériquement faible, bien que le Saas représente 15% des ventes de logiciels en France. Suffisant quand même pour dresser un premier bilan avec les pionniers, et surtout, livrer des »points de vigilance ».
Le Livre Blanc souligne ainsi le caractère complémentaire du développement du cloud par rapport au modèle « traditionnel ». Il ne le remplace pas directement, mais change l'organisation du distributeur qui va faire cohabiter deux modèles. Par exemple, en termes de rémunération, puisque celle-ci s'étale dans le temps, et donc, de trésorerie. En termes de facturation aussi, souvent le client peut commander en ligne, mais a besoin d'un intégrateur à ses côtés. La vente n'est donc plus le point d'entrée pour le partenaire. En termes commercial, enfin, les forces dédiées ne sont plus rémunérées pour les mêmes prestations (la vente) mais pour des services.
La grande promesse du cloud vis-à-vis de la distribution
Ces services, qui sont la grande promesse du cloud vis-à-vis de la distribution, sont clairement rénumérées dans le Livre Blanc. Ils commencent dès la mise en route : reprise des données, sécurisation des environnements utilisateurs, personnalisation des comptes. D'autres services ont trait au conseil et au métier : audit, gestion des projets, formation, mise en place des process, aide au choix, accompagnement au changement. Le Livre Blanc souligne enfin le rôle de services plus basiques : intégration, revente de solutions complémentaires, commission versées par les fournisseurs, dans la nouvelle organisation que le distributeur peut mettre en place.
Des changements conséquents. « Rien n'est simple dans l'approche cloud, nous rappelle Henry-Michel Rozenblum, délégué général d'Eurocloud, c'est la raison d'être de ce Livre Blanc, les VARs, les revendeurs, les intégrateurs vont se confronter à un changement de métier, en particulier sur les aspects rémunération et maîtrise du client ». Actuellement, c'est le Saas qui mobilise les premiers revendeurs, le Paas et l'Iaas devraient séduire à leur tour des distributeurs en 2011.
(*) Créée il y a deux ans, Eurocloud a pris la suite de l'ASP Forum. Au total cette organisation compte une dizaine d'année d'expérience sur le sujet.
(**) Livre Blanc sponsorisé par Arrow, Best'Ware, Cegid, Ecritel, Ibiza Software, Microsoft, Revendreducloud.com et piloté par le cabinet PAD avec une contribution de Markess (par une note de synthèse sur le modèles de distribution du cloud et de rémunération des revendeurs).
IBM aide ses partenaires à fournir des solutions métiers aux PME
Depuis un an, IBM a unifié en une seule division ses activités « PME » et « distribution ». Avantage : le partenaire est en première ligne chez le client et l'équipementier l'accompagne commercialement et techniquement, la vente se fait autour de solutions plutôt qu'autour des seuls produits d'infrastructure estampillés IBM. En France, 500 partenaires, revendeurs, intégrateurs, éditeurs et sociétés de services ont intégré cette démarche. Des partenaires repérés et suivis par les commerciaux d'IBM implantés dans ses 19 structures régionales. Aujourd'hui, Big Blue passe à une phase supérieure.
Les partenaires de la distribution étaient voués à commercialiser les produits d'infrastructure d'IBM. A cette activité traditionnelle, ils sont incités à ajouter une partie solution. « Le client final veut une approche métier, non seulement un produit, mais une connaissance de son secteur » note Eric Taillard (en photo), vice-président d'IBM France chargé de la nouvelle division. L'approche métier est donc mise en avant. Elle implique de la part d'IBM et de ses forces commerciales un accompagnement différent des partenaires en indirect pour leur faciliter la transition, par exemple par des certifications (sur le stockage ou sur le cloud).
IBM va plus loin. D'abord en fournissant des listes de clients intéressés par une solution. Et ce, très finement (avec l'aide d'une agence marketing). « Nous pouvons par exemple, procurer à un partenaire la liste des entreprises intéressées par une solution de cash management sur telle ou telle région » lance Eric Taillard. A cette fourniture massive de leads s'ajoute l'apport de solutions. La France compte 800 éditeurs, ils sont sollicités par IBM pour intégrer leurs produits dans des solutions vendues par les partenaires distributeurs d'IBM.
Dans certains cas, IBM peut même aider ces partenaires éditeurs à réécrire les codes de leurs produits, il dispose de centres spécialisés à La Gaude ou à Marne la Vallée. Cas particulier, celui des éditeurs intéressés par le cloud et le Saas. Ils sont traités par le « club alliances ». IBM va ainsi trouver les chaînons manquants pour que ses partenaires proposent des solutions métier.
41% des PME françaises voient leurs budget IT s'améliorer en 2011
Ces évolutions s'inscrivent dans le cadre de nouvelles attentes des PME mondiales. C'est du moins ce qu'estime IBM à la lecture d'une étude commandée au cabinet KS&R. Elle a permis d'interroger 2112 dirigeants ou responsables IT de PME dans le monde, avec un focus sur la France. Globalement, 53% des PME dans le monde (elles étaient 20% en 2009), et 41% en France, prévoient une croissance de leurs budgets IT pour 2011.
Cette sortie de crise se vérifie par le basculement des priorités. La réduction des coûts qui réunissait 53% des réponses (sur le thème des « considérations stratégiques ») en 2009, tombe à 21%, le focus client grimpe de 11 à 31%, l'innovation passe de 11 à 18% (mais à 19% en France). Derrière ces généralités, les priorités IT vont clairement à l'amélioration de l'infrastructure existante, pour 75% des interviewés. A 70%, on trouve le collaboratif, le business analytics, l'information management. Entre 60 et 70% de réponses figurent les communications unifiées, la virtualisation, le cloud, le Saas et le CRM.
Concernant particulièrement le cloud, KS&R note que 66% des PME recherchent une telle solution. Dans le monde, elles en attendent d'abord une réduction des coûts, ensuite une meilleure facilité de gestion. En France, c'est l'évolutivité des ressources qui arrive en tête, ce critère n'est que huitième dans le monde. Les PME française classent en deuxième position la haute disponibilité et en troisième la réduction des coûts (qui arrive en tête dans le monde). « Elles demandent à leurs prestataires d'être compétents en informatique et de bien connaître le métier de leurs clients », souligne Eric Taillard.
Illustration : Eric Taillard, vice-président d'IBM France, responsable de la division Global Business Partners et Mid-Market (crédit : IBM) (...)
Acropolis inaugure son datacenter parisien
En plein Paris, rue des Jeuneurs, Acropolis Télécom récupère un étage de l'immeuble où se situe Viatel pour ouvrir sur 450 mètre carrés son propre datacenter. Un bond supplémentaire dans le développement de l'entreprise, « nous avons une optique très particulière avec cette ouverture, nous explique Samir Koleilat, président de l'opérateur, il s'agit de conjuguer deux principes essentiels pour nous : la fibre optique et la haute densité ». La fibre optique c'est celle qui relie les 350 clients de l'opérateur partout en France. Essentiellement des PME. Acropolis est interconnecté avec Orange et Completel. La haute densité, c'est le niveau où se situe Acropolis pour son datacenter. « La plupart des datacenter actuels offrent simplement 2 KVA, pour des raisons de rentabilité immédiate. Or, les serveurs mis sur le marché ont besoin de 5 à 10 KVA donc de la haute densité. Nous allons proposer 30 KVA pour notre datacenter, avec des clients reliés en fibre optique ».
Au coeur du réseau d'Ile-de-France
Autre avantages, le datacenter d'Acropolis, vu sa situation géographique, se trouve facilement interconnectable aux réseaux fibres optiques d'Ile-de-France, donc à tout réseau venant sur Paris. De plus, ce datacenter est de niveau « tiers 3 » (voir encadré). Dans la foulée, Acropolis lance une offre cloud. Les deux sont évidemment liés. Baptisée CapCloud, elle permettra aux clients d'Acropolis de mettre leurs serveurs, leurs sauvegardes, mais également leurs applicatifs dans le datacenter d'Acropolis. Ce dernier point est important. La plupart des offres cloud fonctionnant, aux yeux d'Acropolis, en mode propriétaire, avec un catalogue d'applicatifs restreint. Dans les offres Acropolis, le client peut placer ses applicatifs dans le datacenter et accéder à une palette plus large. « Ils conservent la main sur les applicatifs qu'ils installent sur nos serveurs », souligne Samir Koleilat « ils achètent et payent ce qu'ils consomment ».
27% de croissance en 2010
Le Président de l'opérateur insiste également sur les conditions proposées aux clients. Avec par exemple 7 points clés de sécurité, ou la fourniture aux clients des CV des techniciens (basés en France), sans oublier les conditions d'une éventuelle résiliation. De plus, Acropolis lance une version « voix »du cloud, c'est-à-dire l'hébergement du standard téléphonique du client et des applicatifs qui lui sont liés. Ce service fonctionne avec Mitel et bientôt avec Siemens.
Acropolis Télécom affiche un chiffre d'affaires en croissance de 27% à 6,37 millions d'euros pour 2010. Une croissance qu'on retrouvera sur plusieurs années annonce Samir Koleilat. Acropolis Télécom dispose par ailleurs de 2,8 millions d'euros de cash disponible pour des opérations de croissance externe. « Mais nous ne regardons que des sociétés rentables » prend soin de préciser son Président.
Illustration principale : Samir Koleilat, président de l'opérateur; crédit photo D.R.
< Les 10 documents précédents | Les 10 documents suivants > |