Flux RSS
Infrastructure serveur
2924 documents trouvés, affichage des résultats 131 à 140.
< Les 10 documents précédents | Les 10 documents suivants > |
(09/12/2011 16:08:31)
Backup dans le cloud pour Arkeia Network Backup 9.1
Le principal intérêt d'Arkeia Network Backup 9.1 est l'extension de la technologie de déduplication progressive de Kadena Systems à la sauvegarde de données vers le cloud. Une solution désormais hybride donc, local et en ligne. « Il s'agit de donner des outils à nos partenaires qui désirent proposer une plate-forme de sauvegarde avec déduplication progressive », nous a indiqué Frédéric Renard, directeur général EMEA chez Arkeia. Les images sauvegarde peuvent désormais être répliqués en tant que données dédupliquées vers un espace de stockage d'un cloud privé ou public, ce qui constitue une alternative aux bandes pour les sauvegardes hors site. L'usage de la déduplication local permet en outre de diminuer la quantité de données transférées sur le réseau ce qui réduit les temps de back-up. « La sauvegarde peut s'opérer vers un site distant, un cloud privé ou déployer dans un cloud public tel que celui d'Amazon S3 » poursuit le dirigeant. « La solution qui a toutefois le plus de sens est celle proposée par nos partenaires. »
Arkeia propose en effet aux fournisseurs de services hébergés (MSP) et aux revendeurs à valeur ajoutée (VAR) de fournir des services de sauvegarde sur le cloud. L'architecture proposée est classique : un serveur de sauvegarde chez le client - le logiciel ou une appliance physique ou virtuelle - et une machine de réplication dans le datacenter du partenaire ou sur un cloud public. Grâce à l'interface web d'Arkeia Network Backup, le partenaire gère à distance les sauvegardes locales du client final ainsi que la réplication hors site des images de sauvegarde. Un tarif volumétrique sera appliqué par les revendeurs qui sont libres de se caler sur les prix du marché.
A partir de 80 euros par mois pour 60 Go
Partenaire de l'éditeur, Jean-Christophe Le Got, directeur général de Taix, fournisseur de services hébergés basé en région parisienne , nous a détaillé l'offre de sauvegarde hybride qu'il allait proposer avec Network Backup 9.1. « Auparavant, nous travaillions avec ArcServe mais faute d'interlocuteurs et de support, nous avons décidé de passer sur une autre solution il y a deux ans [Arkeia 8 donc]. Avec Arkeia, nous proposons le cheval de Troie de la sauvegarde. Nous déployons des appliances de sauvegarde Arkeia dans les locaux de nos clients et les utilisons pour sauvegarder leurs données. Puis, nous répliquons les données hors site durant la nuit. » Les données sont cryptées et transférées en SDSL pour éviter les time out comme sur l'ADSL. Le dirigeant avoue toutefois ne pas encore proposer de sauvegarde de bases Exchange . « Il est toujours impossible de passer 40 Go dans une nuit. » Pour les tarifs, Taix annonce 80 euros pour 60 Go et 150 euros pour 120 Go mensuels. « Les images et les vidéos ne sont pas encore hébergés, car on ne peut pas les compresser. »
La version 9.1 de Network Backup comprend également des outils étendus pour la gestion du moteur de déduplication progressive et offre un tableau de bord qui rassemble sur une seule page les informations clés du serveur de sauvegarde. Une version bêta d'Arkeia Network Backup 9.1 est actuellement disponible et la version finale est attendue courant janvier. Pour bénéficier du programme bêta, visitez la page : http://www.arkeia.com/beta-test
La version sera gratuite pour les clients d'Arkeia actuellement sous contrat de maintenance. Elle sera commercialisée à partir de 600 euros HT incluant un an de maintenance pour un serveur de sauvegarde.
(...)(09/12/2011 16:00:55)
Première formation certifiante en France sur le cloud
Le cloud computing a très fortement impacté l'organisation des entreprises et leurs équipes. Les métiers se sont transformés et il devenu nécessaire de développer les compétences nécessaires pour construire des systèmes d'information compatibles avec les services cloud en cours de généralisation. « On est en train de passer d'un modèle où l'on faisait tout nous mêmes, à un mode mi externalisé, mi automatisé, qui entraîne une transformation des métiers d'études, d'infrastructure et de support », a souligné Hubert Tournier, adjoint du DSI du groupement des Mousquetaires. Ce dernier regrette l'hyper-spécialisation de certains profils qui présente un risque à la fois pour les individus et pour l'agilité des organisations
« L'approche des métiers est devenue transversale, car il faut désormais créer des services de bout en bout », a poursuivi Patrick Joubert, patron de la société Beamap*. « Les équipes doivent également partager une même sémantique et une même approche de la méthodologie. »
Pour Florence Durand, directrice de Centrale Paris Executive Education, les changements générés par le cloud computing demandent plus qu'une simple adaptation du poste de travail. « Il ne faut pas hésiter à opter pour des formations longues, de 20, 50 ou 60 jours », assure-t-elle. « D'ailleurs, on assiste à une montée en puissance de Mastères spécialisés et des certificats professionnels. En suivant ce type de cursus, les participants sont davantage motivés, car leur savoir-faire leur permet d'être immédiatement valorisés dans leur entreprise. »
20 000 € pour 21 jours de cours
Pour identifier et qualifier les spécialistes du domaine, l'école Centrale Paris Executive et l'organisme de formation IT Global Knowledge ont mis sur pied la première formation qualifiante en France sur le cloud computing. Ce cursus de 21 jours étalés sur 7 mois se décline en quatre modules. Une première session de trois jours aborde les fondamentaux (définitions, enjeux et bénéfices du cloud). 9 jours sont ensuite consacrés au management et à la mise en oeuvre d'une solution de cloud. Un troisième volet (4 jours) s'attaque aux architectures techniques et applicatives, tandis qu'un dernier axe porte, durant 4 jours, sur des retours d'expérience de projets réels.
La certification se base sur du contrôle continu (1 test écrit après chaque module) et une étude de cas avec soutenance en fin de cursus. La formation procure un certificat, inscrit au RNCP (Répertoire National de la Certification Professionnelle) de niveau 1 (BAC+5), délivré par Centrale Paris Executive Education.
Conditions d'admission : être titulaire d'un diplôme Bac+4 ou au minimum de 3 ans d'expérience dans la fonction (DSI, responsable système, responsable architecture, etc.). Quant au coût de la formation, il s'élève à 20 000 € HT pour 21 jours de cours.
* Mise à jour
(...)
Amazon reboot son cloud
Cette semaine, les clients d'Amazon Web Services ont fait part de leurs inquiétudes à propos du redémarrage que le fournisseur réalise sur ses serveurs. Mais, selon les experts, « si les utilisateurs ont correctement configuré leurs applications, ils ne devraient pas souffrir de l'opération de maintenance. »
Amazon a adressé à ses clients AWS un courriel les informant que les serveurs qu'ils utilisent seront redémarrés au motif qu'ils doivent « recevoir des patchs de mises à jour, » comme l'indique le communiqué publié en ligne par Randy Bias, directeur technique de Cloudscaling. Cette nouvelle a mis certains utilisateurs en ébullition, qui s'inquiétaient de savoir si leurs applications seraient toujours accessibles pendant le redémarrage. « Apparemment, aujourd'hui mercredi, c'est le reboot de l'EC2. C'est aussi le jour où certains PDG apprennent : (1) qu'ils utilisent l'EC2 ; (2) qu'ils ne l'utilisent pas très bien, » écrit sur Twitter William Vambenepe, architecte logiciel chez Oracle. EC2 - pour Elastic Compute Cloud - est une offre d'Amazon Web Service (AWS) qui permet aux entreprises de louer des serveurs sur lesquels elles peuvent faire tourner leurs propres applications web.
Le reboot d'un cloud n'est pas incongru
D'autres experts, ainsi qu'Amazon, ont rappelé aux utilisateurs que le redémarrage n'est pas quelque chose de nouveau ou exclusivement le fait de services cloud. « Ce calendrier de déploiement correspond à peu de choses près au calendrier de maintenance des fournisseurs de services d'hébergement traditionnels ou à celui réalisé en interne par les groupes informatiques quand ils déploient des correctifs logiciels ou des mises à jour, » explique Kay Kinton, une porte-parole d'Amazon.
GoGrid, un fournisseur d'Infrastructure-as-a-Service (IaaS), fait également remarquer que si les entreprises gèrent leurs propres serveurs en interne, ils doivent faire des mises à jour similaires. Certes, le déplacement vers le cloud évite aux administrateurs de nombreux soucis de gestion globale, mais certains ont pu considérer que les problèmes liés au redémarrage nécessaire de ces serveurs « appartenaient au passé depuis qu'ils avaient rejoint le cloud,» a ajouté Jayson Vantuyl, ingénieur en chef chez GoGrid. Autre exemple, Salesforce propose une mise à jour trimestrielle, généralement effectuée le dimanche matin, qui immobilise pendant une courte durée ses solutions en ligne.
Penser à la redondance même sur le cloud
« Les utilisateurs qui ont préparé leurs systèmes de façon à inclure les redondances ne devraient pas avoir de problème, » a-t-il ajouté. « Si vous n'avez pas de redondance, vous vous retrouvez où vous étiez déjà, » a-t-il expliqué. Il entend par là qu'Amazon - ou tout autre fournisseur de cloud - ne garantit jamais que le matériel ne tombera pas en panne. « Si un utilisateur ne dispose pas de redondance intégrée dans son application et qu'un élément de hardware devient indisponible pour une raison quelconque, leur application en subira les conséquences. » Amazon prévient les utilisateurs dans le cas où leurs applications risquent d'être impactées, afin qu'ils aient la possibilité de gérer le redémarrage eux-mêmes.
« Netflix, qui gère son service de vidéo en streaming sur AWS, a opté pour un reboot calé sur son propre calendrier, » a écrit sur Twitter Adrian Cockcroft, directeur de l'architecture systèmes dans le cloud chez Netflix. « Cela permet aux utilisateurs de s'assurer que, à aucun moment, leur cluster tout entier ne se retrouve hors ligne, » a déclaré Mark Worsey, DSI de GoGrid. « Ils peuvent le faire eux-mêmes très méthodiquement, » a-t-il ajouté. « AWS laisse le choix à l'entreprise de réaliser cette opération de manière contrôlée afin d'éviter le grand reboot massif qui engendre une panne, » a-t-il expliqué.
Un redémarrage zone géographique après l'autre
Néanmoins, Amazon prend soin de réaliser son opération de mise à jour zone par zone. « Nous prenons garde de ne pas effectuer les mises à jour sur des zones de disponibilité multiples, dans la même région, le même jour, de façon à ce que les instances d'un client situées dans des zones de disponibilité différentes ne soient pas mises à jour au même moment, » a déclaré la porte-parole d'Amazon. Cela signifie que le client qui a anticipé le basculement de ses applications dans une autre région ne sera pas touché par le redémarrage.
(...)(09/12/2011 11:20:54)Cisco unifie ses plateformes cloud avec l'architecture CloudVerse
Cisco lance CloudVerse, une architecture de référence pour les fournisseurs de Cloud. Les grandes entreprises, les fournisseurs de services et les collectivités devraient ainsi pour la première fois pouvoir construire et déployer des modèles cloud publics, privés ou hybrides interconnectés de manière totalement sécurisée.
Cisco entend mettre à disposition un ensemble d'outils et de services, dont un centre de données unifié, un réseau intelligent, des applications et services cloud ainsi que des services professionnels et techniques. Cette plateforme intégrée doit permettre des services et des applications cloud dynamiques et hautement sécurisés. CloudVerse doit permettre de surmonter la barrière des silos technologiques, afin de construire, déployer et gérer plusieurs clouds simultanément. Par ailleurs, dès 2012 Cloud-to-Cloud Connect doit offrir un système de localisation reposant sur des routeurs de la ligne ASR 1000 et 9000.
Index Global Cloud de CiscoLa semaine dernière, Cisco a publié son Global Cloud Index (2010-2015). Le groupe prévoit que le transfert de données au niveau mondial passant par des centres de données devrait être multiplié par 4 d'ici 2015 pour atteindre 4,8 zetabyte. Le trafic cloud connaît actuellement la croissance la plus forte, avec une hausse de 66%, et devrait passer de 130 exabyte en 2010 à 1,6 zetabyte en 2015.
D'ici quatre ans, 76% du trafic passera par des centres de données, et 7% seront engendrés par le trafic entre centres de données pour des activités comme la duplication de données et les updates. Des chiffres qui, selon Cisco, confirment la popularisation croissante des centres de données interconnectés et des services cloud.
ICTJournal.ch (...)(09/12/2011 10:55:44)
Infogérance, les DSI tentent de renégocier les contrats
Ce marché est l'objet de facteurs contradictoires, et même, de plus en plus contradictoires. Les DSI vont par exemple infogérer leurs infrastructures qui constituent un gouffre financier. Inversement, ces DSI s'échinent à renégocier leurs contrats d'infogérance, dont elles contestent le manque de flexibilité. Les contrats d'infogérance, bâtis sur plusieurs années, correspondent mal aux cycles économiques et aux révisions budgétaires que doivent consentir les DSI.
Contradiction entre DSI et infogéreurs
Les spécialistes de l'infogérance, en revanche, assurent leurs assises et leur traversée de la crise par ces contrats d'infogérance qui leur assurent des revenus réguliers sur plusieurs années. Une contradiction s'insinue entre DSI et infogéreurs, elle ne peut que perdurer.
Quant au sujet d'actualité, pour ne pas dire à la mode, du cloud computing, il pèse encore peu sur ce marché. « Ce n'est pas tout à fait le même périmètre et nous n'avons pas connaissance de contrat d'infogérance transformé en contrat cloud » note Katharine Dalka, consultante chez PAC. Le risque de cannibalisation semble écarté.
Avec DemandTec, IBM s'offre des outils d'analyse pour le commerce de détail
L'acquisition par IBM de l'éditeur DemandTec, pour 440 millions de dollars, s'inscrit dans le cadre de son initiative Smarter Commerce, lancée au printemps 2011 pour aider les entreprises à optimiser leurs processus commerciaux, de marketing et de services aux clients.
La société rachetée a développé en mode SaaS (software as a service) des outils d'analyse des prix, du merchandising, des promotions et des actions de marketing. Ses solutions permettent aux commerces de détail de déterminer finement leurs stratégies de tarification et d'offres produits. L'un des modules permet aux entreprises d'élaborer le meilleur mix produits en tenant compte de la demande des acheteurs, de l'espace, de la productivité et de la profitabilité. Un autre aide à fixer le meilleur prix pour un article au long de son cycle de vie. Un commerce peut par exemple prédire comment les clients sont susceptibles de réagir à un changement de prix.
D'autres modules sont destinés à mener des campagnes marketing ciblées. DemandTec aide aussi à comprendre pourquoi tel groupe d'acheteurs diffère de tel autre afin d'élaborer le meilleur plan de merchandising (présentation des produits dans les magasins). L'éditeur propose par ailleurs des services fournis par des partenaires. L'un d'eux délivre des prévisions météo à long terme venant de Weather Trends International.
Ces solutions viendront compléter la famille de produits Smarter Commerce qui inclut aussi la technologie d'intégration B-to-B qu'IBM a acquise avec le rachat de Sterling Commerce en 2010. IBM « redéfinit la façon dont les marques achètent, se vendent, commercialisent leurs produits et apportent un service à leurs clients en répondant à la demande de ceux-ci », a indiqué Craig Hayman, directeur général des solutions métiers, dans un communiqué. « Apporter une dimension scientifique à l'art de la politique tarifaire et de la promotion constitue une grande part de cette stratégie », ajoute-t-il.
Le rachat de DemandTec va aussi apporter à IBM 450 clients de plus, dont quelques-uns des plus grands distributeurs, parmi lesquels Target et Walmart. La transaction devrait être réalisée d'ici à la fin du premier trimestre 2012.
Le cloud bientôt « conquérant » de Huawei
Lors d'un voyage de presse en Chine, nous avons pu visiter le centre de recherche et développement de Huawei à Shanghai. Un immeuble impressionnant qui a couté la bagatelle de 3 milliards de Yuan au constructeur chinois et accueille 8 000 personnes. Une vitrine technologique pour accueillir des petits groupes de clients étrangers. Secret industriel oblige, nous n'avons pas visité les laboratoires de recherche, seules les parties exposition nous étaient ouvertes et elles ressemblaient malheureusement au show room que nous avions déjà parcouru à Shenzhen qui présentait la galaxie produits et services du constructeur (voir illustration ci-dessous).
Le centre de Shanghai est également une plate-forme de démonstration des solutions mises en oeuvre chez Huawei et qui pourraient être déployées chez des clients. 600 serveurs par exemple alimentent les postes de travail de type client léger sur protocole RDP. Un serveur dessert une vingtaine d'utilisateurs. « Le salarié peut prendre n'importe quel poste pour travailler et jusqu'à 200 000 PC peuvent être gérés par notre staff », nous a assuré Zhu Zhi Liang, le porte-parole de Huawei. Ce dernier met en avant les économies d'énergie réalisées avec cette solution et chiffre même à 71% la réduction possible, soit une consommation passant de 78 à 22 watts (d'un PC classique à un client léger avec un écran LCD). Rien d'extraordinaire en Europe ou aux États-Unis, mais en Chine où les coupures de courant ne sont pas inhabituelles dans certaines régions, les économies d'énergie sont une des priorités du régime.
Un cloud développé avec les ressources internes
L'autre grand chantier de la division entreprise de Huawei, c'est bien sûr le cloud computing avec des développements maison. « Nous grandirons plus vite avec nos propres solutions. Nous fournissons déjà le Big Cloud de China Mobile avec près de 1 000 serveurs déployés (...) mais également le cloud du système de santé chinois pour de l'aide au diagnostic médical (voir ci-dessous) et assurer la centralisation des ressources des hôpitaux. » Huawei fournit également des capacités de calcul en ligne à Unicom, l'autre grand opérateur chinois, et des ressources à la Shanghai Middle School.
Comme nous l'avons déjà abordé dans un premier sujet, Huawei est aujourd'hui un des principaux fournisseurs de serveurs aux acteurs chinois du web, la plate-forme d'e-commerce Alibaba et le moteur de recherche Baidu. Fort de sa maitrise des infrastructures serveur, réseau et stockage, le constructeur chinois a construit sa plate-forme cloud computing en développent ses propres solutions d'orchestration et d'automatisation en réutilisant des composants libres. Si Huawei collabore bien sûr avec les principaux éditeurs du marché de la virtualisation - VMware, Microsoft ou Citrix - pour travailler avec certains opérateurs sur des plates-formes IaaS, il privilégie le logiciel libre. Très fort en Chine, Huawei doit affronter une rude concurrence en Europe : SSII, opérateurs, constructeurs américains ou japonais... le cloud computing a déjà plusieurs visages en France qu'il soit public ou privé. La bataille se fera ici sur le service et pas uniquement sur les prix. Le chinois ne désire pas brader ses produits et ses services même s'il sait ajuster ses tarifs au plus juste quand il le faut. Un concurrent qui affute ses armes avant de partir à la conquête du monde. De l'aveu même de Huawei, son cloud n'en est encore qu'à la première génération et avec un marché intérieur encore en croissance, la division entreprise du chinois a encore de beaux jours devant elle.
(...)(08/12/2011 10:11:33)
La CFDT oriente son infrastructure IT vers le cloud privé
La Confédération Française Démocratique du Travail (CFDT) est un syndicat comptant 850 000 adhérents. Pour leur service, l'infrastructure informatique du siège comportait, en 2010, 10 serveurs et 300 postes de travail, assez hétérogènes et vieillissants. La DSI du syndicat a donc décidé de refondre ses infrastructures en misant sur l'harmonisation, la modernisation et une vision service.
Le syndicat a choisi une démarche d'infogérance à la demande. La capacité de traitement, de stockage et de bande passante devaient pouvoir s'adapter en fonction des besoins aussi bien à la baisse qu'à la hausse. Il était également nécessaire que les utilisateurs bénéficient d'une assistance tant téléphonique que de proximité.
Pour atteindre ces objectifs, la CFDT a choisi l'offre IODe d'Intrinsec. Cette société met à disposition du syndicat un technicien dans ses locaux en plus des services d'infogérance et d'assistance. Elle participe à la réflexion stratégique en cours sur la refonte des outils informatiques.
Le coût du projet n'a pas été dévoilé.
Dell toujours à l'affut d'un achat dans les services en Europe
Selon Thierry Petit, directeur général de Dell France, 2011 se termine convenablement, « la fin d'année est correcte, on attend janvier pour voir la tendance sur les budgets 2012. On aura une première idée des restrictions budgétaires dans les grands ministères ». En cette veille d'élections présidentielles et législatives, un grand nombre de fournisseurs d'infrastructures, d'éditeurs, et de SSII retiennent en effet leur souffle. « Le secteur public va être attentif jusqu'aux élections présidentielles (...) ensuite quelle sera la dynamique des entreprises ? Volontaire ou attentive », poursuit le dirigeant.
Sur les projets cloud à venir, M.Petit confirme que la demande progresse, « on voit quelques projets, mais pas encore partout et pas sur tous les sujets». Sur le projet de cloud souverain Andromède, piloté par Orange, Dassault Systèmes et Thales, le responsable avoue du bout des lèvres participer à certaines discussions sans désirer entrer dans les détails. « Une chose est sûr, plus le cloud se développe et plus il faudra d'infrastructures, et c'est une de nos spécialités ».
Et les coûts cachés des clouds ?
À la question de savoir si les coûts cachés des clouds ne commencent pas à inquiéter les clients, le patron de Dell France assure que pour connaitre le vrai prix du cloud, il faut connaitre le coût de la réversibilité. « Combien me coutera le fait de défaire un cloud ? C'est encore un point inconnu, nous ne sommes qu'au début du cloud. C'est à la fois une question technique et humaine. On ne peut pas, comme pour l'outsourcing, reprendre la main pour des questions de stratégie. » Sur la complexité grandissante du cloud computing pour des questions de sécurité et de fonctionnalités étendues, Thierry Petit assure que le point fondamental du cloud est qu'il est aujourd'hui un moyen de mutualiser les moyens et pas seulement dans une perspective économique. « Il s'agit de renforcer la sécurité, la flexibilité et la technique : ce sont les réels bénéfices du cloud computing. On peut baisser les coûts grâce à la mutualisation, mais on peut également générer d'autres coûts suite à l'amélioration du niveau de service et de la disponibilité ».
Interrogé sur un point de friction entre européens et américains, l'intrusion du Patriot Act dans les données stockées dans le cloud, Thierry Petit estime que les discussions actuelles sont une bonne chose et ne manifeste pas d'inquiétude particulière sur ce sujet. « La question centrale est de savoir, s'il est possible d'interdire une partie du marché à certains acteurs ? »
Une acquisition amicale attendue dans les services en Europe
Sur le marché des serveurs, Dell fait toujours partie du trio de tête, derrière HP et IBM, et ne craint pas la montée en puissance de Lenovo. « Nos métiers sont très différents, les clients n'achètent pas qu'un prix. Ils veulent un fournisseur avéré ». Un changement de culture chez Dell qui ne veut plus seulement passer pour un pousseur de cartons. Le constructeur texan s'est en effet considérablement renforcé dans les activités de stockage, de réseau et les services avec le rachat de Perot System en 2009. Mais ce dernier était principalement établi aux États-Unis et en Inde, et pour accroitre sa présence sur le marché européen, Dell envisage toujours une acquisition.
« Le développement de nos activités services passe par un rachat. Nous réalisons 80% de notre chiffre d'affaires services aux États-Unis, nous recherchons toujours le Perot européen pour atteindre une masse critique. Nous avons la capacité d'intégrer proprement un acteur de bonne taille. Le prix n'est pas un problème, nous souhaitons simplement éviter un acteur trop hétérogène. 1 à 2 société de services en Europe correspondent ». Au petit jeu du name droping - Logica, Steria, Sopra - Thierry Petit s'est refusé à commenter l'acquisition éventuelle de ces proies. Il a simplement indiqué que Dell faisait toujours des acquisitions amicales. « On regarde en permanence des acquisitions possibles. Nous scrutons 80 à 100 sociétés par an, avec pour objectif d'en acheter 8 à 10. » À coté des SSII, Dell cherche également à se muscler en stockage dans les domaines de l'archivage et du back-up. « Dans le secteur de la sécurité, nous sommes encore très petits et des acquisitions sont encore possibles. » Pour suivre ces opérations de rachats, Dell a débauché Dave Johnson qui s'occupait de la même chose chez IBM. Il est aujourd'hui en charge la stratégie chez Dell. Avec 16 milliards de dollars de cash en réserve, dont 5 générés au dernier trimestre, le constructeur texan a encore les moyens de financer ses ambitions.
Intel corrige une faille permettant de contourner une sécurité intégrée dans ses processeurs
Intel a mis en oeuvre un processus complexe pour développer un patch destiné à corriger une faille découverte récemment dans les SINIT ACM, autrement appelés System INITialisation Authenticated Code Modules. Ces modules sont susceptibles de subir une attaque par dépassement de mémoire tampon et de laisser passer un malware capable de contourner la plate-forme TXT (Trusted Execution Technology) pour prendre le contrôle total de la machine infectée. La technologie TXT, propre aux processeurs et chipsets d'Intel (Core 2, Core i5 et i7 et enfin Xeon, voir liste compléte), combine des éléments matériels et logiciels. Elle a pour but de bloquer l'exécution de codes par un ensemble de signatures logicielles certifiées.
La mise en évidence de cette vulnérabilité par élévation de privilège revient à l'entreprise de sécurité Lab Invisible Things, dont les chercheurs avaient repéré une faille similaire dans les SINIT ACM il y a deux ans. En fait, selon Joanna Rutkowska, fondatrice et CEO de l'entreprise, le problème découvert en 2009 était un sous-ensemble de cette vulnérabilité nouvellement mise à jour. Si bien qu'elle se dit étonnée qu'Intel ait qualifié la gravité de cette vulnérabilité comme importante, alors qu'en 2009, le fondeur l'avait jugé comme critique. « Ce qui est vraiment intéressant dans cette attaque, ce sont les conséquences du mode de détournement de SINIT, notamment la capacité à contourner la TXT et le panneau de configuration LCP (Local Control Panel) d'Intel, mais aussi celle de compromettre le système de gestion de RAM (SMRAM), » a déclaré Joanna Rutkowska dans un blog.
Une vulnérabilité importante
Cette vulnérabilité est importante parce que la technologie Trusted Execution d'Intel sert d'extension matérielle aux microprocesseurs et aux chipsets du fondeur et son objectif est de fournir un mécanisme de protection contre les attaques logicielles. La TXT peut être utilisée par les entreprises pour contrôler la façon dont les informations sont stockées, traitées et échangées dans leurs systèmes. Intel a publié un avis ce lundi pour annoncer que la mise à jour des SINIT ACM et celle du microcode étaient disponibles afin de résoudre ce problème. Cependant, selon la CEO de Lab Invisible Things, le processus de correction a demandé un effort significatif à l'entreprise. « Intel a dû non seulement modifier les modules SINIT, mais aussi mettre à jour le microcode de tous les processeurs affectés. Le fondeur a dû également travailler avec les vendeurs de BIOS afin qu'ils livrent de nouveaux BIOS capables de charger inconditionnellement le microcode mis à jour (sans compter les mécanismes anti-rollback pour empêcher les BIOS et le microcode de revenir aux versions antérieures). Autant dire, un gros travail », explique le chercheur.
Pour ceux qui s'intéressent aux aspects techniques, Lab Invisible Things a publié un document de recherche qui décrit en détail le fonctionnement de la vulnérabilité et de l'exploit développé par les chercheurs pour contourner la TXT et le panneau de configuration LCP d'Intel. L'entreprise de sécurité conseille aux administrateurs système qui s'appuient sur cette technologie de demander les mises à jour du BIOS permettant de résoudre la vulnérabilité à leurs équipementiers respectifs et de les déployer dès que possible. Dans le cas où cette mise à jour ne serait pas encore disponible ou que la technologie n'est pas utilisée, Lab Invisible Things recommande tout bonnement de désactiver la TXT dans le BIOS.
< Les 10 documents précédents | Les 10 documents suivants > |