Flux RSS
Infrastructure serveur
2924 documents trouvés, affichage des résultats 201 à 210.
< Les 10 documents précédents | Les 10 documents suivants > |
(03/11/2011 16:46:33)
Avec l'annonce du Poulson, HP et Intel rassurent sur l'avenir d'Itanium (MAJ)
Si Oracle a bouleversé le marché Itanium au printemps avec son annonce surprise - la fin de tous ses développements applicatifs sur la plate-forme portée par HP et Intel - les deux larrons sont bien décidés à soutenir leur écosystème IA-64. Ce dernier représente un peu moins du 8% du chiffre d'affaires de HP (4 milliards pour la partie ventes de serveurs Unix et 4 autres milliards pour l'activité services associés) et 10% des revenus d'Intel (4 milliards environ sur les 43,6 engrangés l'année dernière).
À l'occasion d'un point presse semestriel sur la plate-forme Integrity, les équipes de HP et d'Intel ont répondu à nos questions sur l'avenir d'Itanium et sur les options envisagées pour remplacer certaines briques fournies jusqu'à présent par Oracle. Si Alain Carpentier, directeur des infrastructures chez HP France, reste confiant quant à l'issue des procédures judiciaires engagées contre Oracle aux États-Unis et même en France. Le droit français protège assez bien les entreprises nous a assuré Alain Carpentier qui a refusé d'en dire plus sur les actions déclenchées dans l'hexagone pour obliger Oracle à poursuivre le développement de ses logiciels pour la plate-forme Itanium. « Cette décision est embêtante pour nos clients. C'est un coup stratégique [de la part d'Oracle] pour tenter de supprimer un concurrent [HP]. Les clients qui ont investi sur HP/Ux se trouvent confrontés à la décision unilatérale d'un éditeur. Nos clients continuent pourtant de déployer des systèmes HP/Ux avec des bases de données Oracle, l'urgence est plus sur l'applicatif. La position de HP est de faire revenir Oracle en arrière ».
Porter l'applicatif sur des plates-formes modernes
Une migration est bien sûr toujours possible, mais dans un contexte économique difficile, mais c'est toujours long et compliqué. « Nos clients [Integrity] veulent conserver leurs applications sans les recompiler et les porter sur de nouvelles plates-formes matérielles. Ils n'ont pas le temps, ni le budget, ni l'envie de redévelopper des applications », nous a expliqué Benoit Maillard, responsable des serveurs critiques chez HP. « Nous proposons à nos clients d'installer leurs applications sur des serveurs modernes. » Le constructeur propose même des solutions baptisées System Containers pour porter par exemple les bases de données Oracle 7 et 8 sur les derniers Itanium. Une sauvegarde de la machine source puis l'intégration dans une sorte de machine virtuelle pour le support des pilotes et des divers environnements permet de travailler sur une plate-forme plus performante et plus sécurisée (cluster, dernières fonctions OS/processeur).
Un des noeuds du problème concerne la partie base de données pour laquelle HP envisage déjà des alternatives. Après Oracle Database et IBM DB2, HP a certifié Sybase. « Les cinq principaux modules de SAP peuvent aujourd'hui être déployés avec Sybase à la place d'Oracle », nous assure Alain Carpentier. « En juin dernier, nous avons très bien accueilli les annonces de SAP sur la montée en puissance de Sybase. » L'éditeur allemand pousse en effet la base de données de Sybase sur d'autres marchés que la banque/assurance. Pour les données non structurées, HP a également un SGBD maison Vertica et une version de PostGreSQL pour PA-Risc ou Itanium dont le support est assuré par EnterpriseDB. Pour la partie applicative, c'est un peu plus compliqué. « Oracle pousse ses clients à passer sur Exadata, pas sur les plates-formes x86 », précise Alain Carpentier. À la question de savoir si la démarche d'Oracle est une réponse aux propositions de migrations clef en main de Sun/Sparc vers HP/Integrity , le dirigeant juge que les questions ne sont pas liées.
[[page]]
L'actualité d'Itanium, c'est aussi l'arrivée prochaine de Poulson, attendue début 2012 chez Intel et au milieu de la même année sur les serveurs HP Interity. Jean-Laurent Philippe, responsable avant-vente EMEA pour Itanium, nous a détaillé les apports et la roadmap de la plate-forme Epic. Gravé en 32 nm, contre 65 pour l'Itanium 9300, le Poulson est doté de 3,1 milliards de transistors et intègre 54 Mo de mémoire cache. Si L'Itanium repose sur la micro-architecture Epic, il emprunte ou partage de plus en plus de composants avec les Xeon, à savoir le chipset, l'interconnexion, le buffer et la mémoire. Disponible avec huit coeurs cadencés à 1,75 GHz (1,85 GHz en mode Turbo) sur 2,4 ou huit sockets, le Poulson est compatible aux niveaux pin et binaire avec l'Itanium 9300. Benoit Maillard était ainsi très fier d'avoir pu assister au boot de deux serveurs équipés des premières puces Poulson.
Trois technologies ont été ajoutées au Poulson pour justifier l'avance qu'il doit conserver sur la famille Xeon : l'Hyper-Threating Multidomain, l'Instruction Replay et de nouvelles instructions. Des fonctionnalités qui seront indisponibles sur les prochains Xeon (les E5 attendus début 2012) par faute de place sur la puce et pour cause d'OS inadaptés. Si Intel fait progressivement monter en puissance ses Xeon avec l'intégration de fonctionnalités RAS (Reliability, Availability Serviceability), l'Itanium doit garder une longueur d'avance.
Une roadmap jusqu'en 2015
Et pour démentir les affirmations d'Oracle sur la fin programmé de la plate-forme IA-64 Epic, Intel a cru bon de dévoiler la roadmap Itanium avec le développement du Kittson, attendue dans 3 à 4 ans. Et après le Kittson ? « C'est rare qu'Intel s'engage aussi loin dans le futur pour garantir la stabilité d'une de ses plates-formes », nous a répondu Jean-Laurent Philippe. « Je sais ce que je voudrais avoir notamment pour l'exascale, mais rien n'est encore décidé ».
Au chapitre performances, Intel annonce des résultats au moins 2 fois supérieurs avec le Poulson (par rapport au 9300) sans recompilation. Avec recompilation, on pourra augmenter, ces performances assure le fondeur. Des versions basse consommations sont prévues, mais la version standard du Poulson - avec plus de coeurs et de cache - ne dépassera pas 170 Watts contre 185 pour la génération précédente.
(...)(03/11/2011 10:50:10)Apple va quasi doubler ses dépenses d'investissements en 2012
La firme américaine veut investir 8 milliards de dollars en 2012, ce qui représente presque un doublement par rapport aux dépenses de son exercice fiscal 2011 qui s'élevaient à 4,3 milliards de dollars.
900 millions de dollars devraient aller au développement de sa chaîne de boutiques, contre 614 millions durant le dernier exercice. Apple a ouvert 30 magasins le trimestre dernier, ce qui porte son réseau de distribution à 357 boutiques propres. Pour Peter Oppenheimer, responsable financier de la société, 40 Apple Sores ouvriront en 2012, dont 30 hors du sol américain.
Chaînes de production et ferme solaire pour le datacenter de Maiden
7 autres milliards seront investis dans les installations et équipements de ses chaînes de production et de fabrication, y compris les dépenses IT et l'infrastructure de la société. Les dépenses pourraient ainsi aller dans la construction d'une centrale de production d'énergie solaire pour son datacenter de Caroline du Nord et dans le futur siège de la société à Cupertino présenté l'été dernier par Steve Jobs et susceptible d'accueillir quelques 13 000 collaborateurs.
ICTjournal.ch
Illustration : Datacenter d'Apple à Maiden en Caroline du Nord
Crédit Photo: D.R
(...)(03/11/2011 10:40:49)Les DSI des établissements financiers prêts pour le cloud selon Gartner
Pour la seule région EMEA (Europe, Moyen-Orient et Afrique), 44% des DSI des établissements financiers estiment que, en 2015, plus de la moitié des transactions de leurs établissements seront pris en charge via une infrastructure cloud et 33 % d'entre eux s'attendent à ce que la majorité des transactions soient traitées via une solution SaaS.
Selon Peter Redshaw, vice-président de Gartner, une adoption précoce du cloud, particulièrement dans le secteur des services financiers, a probablement été limitée à des domaines non stratégiques, mais désormais elle se déplace vers le coeur de l'organisation: «Les clouds bancaires doivent être innovants et dédiés à cette industrie.» Il ajoute : « Ils ont la capacité de mener une 'destruction créatrice' (au sens de Schumpeter). En plus d'aider à améliorer ou à optimiser un service ou un processus existant, les clouds bancaires peuvent permettre - ou offrir la liberté - d'essayer complètement les nouveaux services et processus, tels que les enchères inversées. Le succès des services de cloud peuvent supplanter les processus de design, de distribution ou de transactions actuels d'une façon destructive, plutôt que de simplement les améliorer progressivement.»
Une rapidité de déploiement soulignée
Parmi les avantages les plus attrayants des cloud bancaires, Gartner met en avant la capacité de déployer (d'une manière économiquement viable) le modèle «champion-challenger» qui vise à ajouter une dynamique concurrentielle à la façon dont les processus sont améliorés et choisis. Dans la mesure où les banques remplacent progressivement les employés dans la chaîne de valeur des opérations algorithmiques pour exécuter des processus et prendre des décisions, la propriété intellectuelle des banques réside de plus en plus dans ces algorithmes. La valeur des salariés n'est pas dans la gestion des opérations, mais dans l'amélioration des opérations algorithmiques. Bien que la technologie soit encore immature sur de nombreux points, le cloud arrive en tête des priorités pour les banques qui ont besoin de poursuivre une vision à long terme basée sur l'efficacité et de soutenir la stratégie de croissance du PDG.
Pour cette enquête, 290 CIO issus d'entreprises de services financiers ont été interrogés, 109 travaillent dans le secteur des assurances et 181 sont issus d'entreprises du secteur bancaire et des services d'investissement.
VMware part à la rencontre des PME
Le Tour de France VMware, sera le plus important organisé par un éditeur en France promet Stéphane Arnaudo, senior manager partner organization de VMware. L'enjeu est donc de taille et se situe à un moment charnière. VMware s'il bénéficie d'une forte notoriété veut aussi ancrer le cloud dans les priorités de ses partenaires et de leurs clients PME.
A l'occasion du Tour de France, qui compte 28 dates et entraîne 12 partenaires, VMware veut montrer qu'accéder au cloud computing peut se faire par étape. Avec d'abord, la virtualisation, ensuite des solutions destinées également aux PME, comme le PRA, puis l'accès à l'administration et à la gestion des systèmes d'information, et enfin des solutions de mobilité par les tablettes (l'iPad dans un 1er temps)ou les smartphones (accords signés avec LG et Samsung).
Démythifier le cloud computing
En décomposant le cloud computing, VMware cherche à le démythifier, le rendre palpable et plus accessible. Autre mythe, celui du seul cloud public. VMware là aussi veut aller plus loin, montrer ce qu'une approche en cloud privé apporte à l'entreprise.
Le Tour de France est également l'occasion de délivrer des informations purement distribution. Un accompagnement en trois axes : informations technologiques sur les annonces de VMworld (Vsphere 5 pour PME, VMware storage appliance et vCenter protect essentials plus), segmentation des partenaires pour répondre à toutes les attentes clients, recrutements de nouveaux partenaires à destination des PME et de spécialistes de l'infrastructure. « Les PME sont un vrai gisement de croissance, le marché SMB représente 44% de la dépense informatique mondiale », souligne Stéphane Arnaudo.
HP teste des serveurs avec 288 puces ARM Calxeda
Selon Hewlett-Packard, les serveurs en cours de développements basés sur l'architecture basse consommation ARM, seraient capables de réduire les besoins en énergie et en espace de 90% dans les entreprises exécutant certaines applications hébergées sur le web. Ces serveurs, construits autour d'un processeur 32 bits de Calxeda sous licence ARM, sont destinés aux géants de l'Internet comme Yahoo et Facebook, mais aussi à d'autres entreprises exécutant des applications cloud à grande échelle pour effectuer des tâches comme l'analyse de données, les services web et la diffusion de contenu online.
Les serveurs de HP intègrent 288 puces Calxeda ( sur base Cortex-A9) montées en racks serveurs 4U, soit 2 800 processeurs pour un rack complet, et partagent une alimentation, un système de refroidissement et la gestion de l'infrastructure. La suppression d'une part importante des câblages et des systèmes de commutation, présents dans les serveurs traditionnels, et l'utilisation de processeurs ARM basse consommation, permet, selon HP, de réduire à la fois la consommation et l'espace utile de façon spectaculaire. « Les premiers serveurs ARM seront livrés au cours du premier semestre 2012, » a déclaré Glenn Keels, directeur marketing de l'HyperScale Business Unit de HP. En précisant toutefois que ceux-ci seront réservés à des fins de test et d'évaluation seulement, et que HP n'avait pas, pour l'instant, programmé de date quant à leur mise éventuelle en production.
« Nous allons installer cette technologie sur site et permettre aux utilisateurs de tester le bon fonctionnement de leurs applications, » a déclaré le directeur marketing. Reste que HP franchit une étape majeure, puisque l'entreprise devient ainsi le premier constructeur important à annoncer un serveur à base d'ARM. L'enjeu est également important pour Calxeda, une start-up d'Austin, Texas, qui a mis au point sa technologie dans le plus grand secret et n'a même pas annoncé encore son premier produit.
Plusieurs architectures sont envisagées
D'ailleurs, « l'annonce faite par HP ne se limite pas à un nouveau serveur, » comme l'a précisé Glenn Keels. Le système Calxeda sera le premier d'une famille de serveurs très performant sur le plan énergétique. « Parallèlement au projet Calxeda, HP va continuer à développer d'autres serveurs Redstone en utilisant des puces basse énergie d'autres fondeurs, y compris les processeurs Atom d'Intel, » a indiqué le directeur marketing. « Il s'agit là beaucoup plus que d'un serveur, » a-t-il encore ajouté.
« Il s'agit d'une infrastructure, d'un programme d'habilitation auprès des clients. Il s'agit aussi de rassembler les partenaires de l'industrie derrière un projet visant à l'efficacité énergétique extrême. Tout cela va évoluer au cours des prochains trimestres et des années à venir. » Comme l'a déclaré Glenn Keels, « HP livrera pour tests son premier système ARM à 30 ou 40 de ses plus gros clients seulement. » Les autres clients auront accès aux laboratoires de HP aux États-Unis, en Chine et en France pour y tester leurs applications et voir si elles tournent correctement sur ce nouveau matériel.
Des puces ARM 32-bit à à 1,4 GHz
La plate-forme Redstone se compose d'un châssis rack serveur 4U (7 pouces). A l'intérieur, HP a mis 72 petites cartes serveur, intégrant chacune quatre processeurs Calxeda, 4 Go de RAM et 4 Mo de cache L2. Chaque processeur, basé sur l'architecture ARM Cortex-A9, tourne à 1,4 GHz et dispose d'un switch crossbar de 80 gigabits pour les échanges. Si les clients souhaitent plus de capacité de stockage que de puissance de calcul, les cartes serveur peuvent être remplacées par des disques durs de 2,5 pouces ou des SSD. Selon Glenn Keels, « un demi-rack de serveurs Calxeda permet d'abattre autant de travail que 10 racks équipés de serveurs x86, pour l'exécution de certaines applications, comme Hadoop ou Apache Web Server. » Avec un autre avantage, « les serveurs Calxeda ne nécessitent que 9 kilowatts, soit 10 fois moins d'énergie que les serveurs x86. »
[[page]]
Hewlett-Packard n'est pas le seul à travailler sur des serveurs adaptés aux environnements à très grande échelle. SeaMicro propose un serveur 10U du nom de SM10000. Celui-ci intègre 512 coeurs Intel Atom et utilise le même principe d'infrastructure partagée que le Redstone de HP. Dell construit des serveurs destinés à de gros clients et intégrants divers types de processeurs basse énergie. L'entreprise expérimente aussi des serveurs intégrant des puces ARM.
Les serveurs à base de processeurs ARM posent aujourd'hui plusieurs défis. Tout d'abord, il n'existe pas actuellement de processeur ARM 64-bit, ce qui limite la quantité de mémoire disponible que les serveurs d'HP peuvent utiliser, et par conséquent le type d'applications et de VM qu'ils seront en mesure d'exécuter. ARM vient d'annoncer son premier processeur 64-bit, mais celui-ci ne sera pas prêt avant 2014. L'usage de processeurs 32-bit réduit aussi le choix dans le logiciel serveur, dans une offre déjà relativement maigre.
« Il y a une version Fedora Linux de Red Hat pour processeurs ARM 32-bit, » a indiqué Glenn Keels, et « Canonical a annoncé une version 32-bit d'Ubuntu pour ARM, » a-t-il annoncé. Ces limitations permettent de dire que, pour la plupart des clients, les serveurs x86 traditionnels occuperont pour quelque temps encore une place dominante. « Nous n'allons pas du tout réduire nos environnements traditionnels x86. Ils vont continuer à être les bêtes de somme de nos centres de calcul. Au moins pour le reste de la décennie, » a déclaré Glenn Keels.
La Chine montre un supercalculateur exploitant ses propres puces
La Chine a construit son premier supercalculateur entièrement basé sur des processeurs qu'elle a fabriqués, ce qui constitue pour le pays une étape importante vers une indépendance vis-à-vis de la technologie occidentale pour la mise au point des systèmes HPC. Le centre national des supercalculateurs de Jinan a dévoilé l'ordinateur jeudi dernier, selon la presse d'Etat. Ce supercalculateur utilise 8 704 micro-processeurs Shenwei 1600 ayant été développés par le National High Performance Integrated Circuit Design Center de Shanghai.
Mis au point par l'institut de recherche SDAS (Shandong Academy of Sciences), le système présente une puissance de pointe théorique de 1,07 petaflop (mille milliards d'opérations en virgule flottante par seconde) et une performance soutenue de 0,79 petaflop, mesurée par le test Linpack. Cela pourrait le placer à la 13e place du Top 500, le classement mondial des supercalculateurs. Des photos du processeur utilisé et du datacenter peuvent être consultées sur le site gov.cn. Selon le New York Times, le système porterait, en anglais, le nom de Sunway BlueLight MPP.
Il y a un an, le Tianhe-1A détenait la 1ère place du Top 500
La Chine investit de plus en plus dans la technologie HPC. En novembre dernier, son supercalculateur Tianhe-1A avait attiré l'attention en devenant temporairement le plus puissant du monde, prenant alors la tête du Top 500. Mais l'ordinateur exploitait des puces fabriquées par Intel et Nvidia. Le Tianhe-1A présente une vitesse théorique de 4,7 petaflops et une performance soutenue de 2,5 petaflops.
Dans le Top 500, la Chine ne compte pas moins de 61 supercalculateurs. Comparativement, les Etats-Unis en dénombrent 255. Pour l'instant, c'est le K Computer, un système HPC japonais qui détient la première place, d'où il a délogé le Tianhe-1A.
Les experts du domaine s'attendaient à ce que la Chine construise son propre supercalculateur en utilisant des processeurs qu'elle aurait elle-même fabriqués. Sur place, la presse d'Etat a salué le nouveau venu comme un symbole de la puissance chinoise.
Illustration : le supercalculateur chinois utilisant les puces fabriqués localement (crédit : www.gov.cn)
ARM se met au 64-bit pour ses futures puces serveurs
L'architecture ARMv8, dévoilée par ARM, ajoute des instructions 64-bit pour étendre la capacité de ses puces. Une amélioration par rapport à l'actuelle architecture ARMv7, qui limitait l'adressage mémoire à 40-bit ( avec une capacité maximale de 1 To). Cette extension permettra à ARM de concurrence les puces basse consommation d'Intel pour serveur.
ARM devrait proposer des designs de processeurs intégrant l'architecture v8 en 2012, mais les premiers prototypes de serveurs ne devraient arriver que vers 2014. « C'est le début d'un long chemin pour les produits ARM en 64-bit » a expliqué Mike Muller, directeur technique d'ARM lors d'un évènement de la société nommée Techcon. Il a ajouté que cette architecture offrira la rétrocompatibilité et la migration des applications existantes.
Garder le ratio performance/consommation électrique
La plupart des systèmes actuels d'exploitation des PC et des serveurs, tels que Windows et Mac OS, fonctionnent en 64-bit. Les ordinateurs peuvent adresser une plus grande quantité de mémoire et améliorer les performances de certaines applications exigeantes.
L'architecture v8 intègrera des puces comprenant des minuscules capteurs pour les équipements d'infrastructure haut de gamme. Elle apportera « du calcul 64-bit avec une grande efficience énergétique » pour serveurs. Le manque de capacités 64-bit a souvent été considéré comme une faiblesse pour pénétrer les marchés PC et serveur et concurrencer les puces x86-64 d'Intel. ARM avait indiqué qu'il irait vers le 64-bit lorsque cela serait nécessaire et sans sacrifier le ratio performance/consommation énergétique.
Illustration: Mike Muller, CTO d'ARM présente ARM v8 lors de l'évènement Techcon
Crédit Photo : IDGS New York
(...)
Facebook construit son 1er datacenter européen près du cercle polaire
Facebook a débuté la construction d'un datacenter à Lulea en Suède. Il s'agit du premier en Europe et de son troisième au niveau mondial. Le site de réseau social prévoit d'aménager sa première salle avec des serveurs d'ici la fin de l'année prochaine. Le centre de calcul accueillera les premiers utilisateurs de Facebook en avril ou mai 2013. Trois autres salles serveurs au sein des 28 000 mètres carrés de construction seront finalisés en 2014. Le site choisi peut contenir deux autres bâtiments de la même taille, mais Facebook n'a pas l'intention pour l'instant d'utiliser cette espace.
Luleå se situe au bord du cercle arctique et dispose d'une température annuelle moyenne de 1° C en sachant que l'été la moyenne est de 20° C. Avec ces caractéristiques climatiques, Facebook va utiliser le refroidissement par air extérieur pour son datacenter plutôt que la climatisation et ainsi réaliser des économies. Le PUE (Power User Effectivness) du prochain datacenter du site de réseau social n'a pas été donné, mais l'utilisation du procédé « Free Air Cooling » devrait le placer parmi les plus performants. Pour mémoire, les datacenters traditionnels ont un PUE compris entre 1,6 et 1,9.
En matière d'alimentation électrique, la rivière Lule proche de la ville fournira de l'énergie hydroélectrique. Les édiles de la ville de Lulea estiment que leur électricité est la moins chère en Europe. A cela s'ajoute, le projet Open Compute de Facebook pour concevoir des serveurs économes.
Illustration : Maquette du datacenter de Facebook à Lulea
Crédit Photo: Sweco/The Node People
(...)(27/10/2011 15:00:09)Des failles de sécurité préoccupantes dans les clouds
Des chercheurs allemands, qui affirment avoir trouvé des failles de sécurité dans Amazon Web Services, pensent que celles-ci se retrouvent dans de nombreuses architectures cloud. Selon eux, ces vulnérabilités permettraient aux attaquants de s'octroyer des droits d'administration et d'accéder à toutes les données utilisateur du service. Les chercheurs ont informé AWS de ces trous de sécurité et Amazon Web Services les a corrigés. Néanmoins, ceux-ci estiment que, « dans la mesure où l'architecture cloud standard rend incompatible la performance et la sécurité, » de mêmes types d'attaques pourraient réussir contre d'autres services cloud.
L'équipe de chercheurs de la Ruhr-Universität Bochum (RUB) a utilisé diverses attaques d'encapsulation de signature XML (XML signature-wrapping) pour gagner l'accès administrateur aux comptes clients. Ils ont pu ensuite créer de nouvelles instances cloud au nom du client, puis ajouter et supprimer les images virtuelles. Dans un exploit distinct, les chercheurs ont utilisé des attaques de type « cross-site scripting » ou XSS contre le framework Open Source du cloud privé Eucalyptus. Ils ont également constaté que le service d'Amazon était vulnérable aux attaques de type XSS. « Ce problème ne concerne pas que le service d'Amazon», a déclaré l'un des chercheurs, Juraj Somorovsky. « Ces attaques concernent les architectures cloud en général. Les clouds publics ne sont pas aussi sûrs qu'on le croit. Ces problèmes pourraient très bien se retrouver dans d'autres frameworks cloud, » a-t-il expliqué.
Renforcer la sécurité XML
Juraj Somorovsky a indiqué par ailleurs que les chercheurs travaillaient sur des bibliothèques haute-performance qui pourront être utilisées avec la sécurité XML pour supprimer la vulnérabilité exploitable par des attaques d'encapsulation de signature XML. Celles-ci devraient être prêtes l'année prochaine. Ces bibliothèques s'appuient sur le mécanisme d'attaques de type « signature-wrapping » mis en évidence par les chercheurs de la Ruhr-Universität Bochum dans l'Amazon Web Service qu'ils sont parvenus à corriger. « Aucun client n'a été affecté, » a déclaré par mail un porte-parole d'AWS. « Il est important de noter que cette vulnérabilité potentielle impliquait un très faible pourcentage de tous les appels API AWS authentifiés qui utilisent des points de terminaison non-SSL. Cette vulnérabilité n'est pas disséminée, comme cela a été rapporté. »
AWS a posté une liste des meilleures pratiques en matière de sécurité, laquelle, si elle est suivie, aurait protégé les clients contre les attaques imaginées par l'équipe de chercheurs de l'université allemande, et contre d'autres attaques également.
Crédit photo : D.R.
(...)
< Les 10 documents précédents | Les 10 documents suivants > |