Flux RSS
Infrastructure serveur
2924 documents trouvés, affichage des résultats 331 à 340.
< Les 10 documents précédents | Les 10 documents suivants > |
(22/08/2011 10:22:23)
Amazon revient sur la panne de ses services début aout
La récente panne du service de cloud d'Amazon EC2 - les 7 et 8 aout - a conduit l'entreprise à se remettre en question. Dans un premier rapport sur les événements, la société reconnaît qu'elle était mal préparée à une telle panne de courant. Selon son rapport, Amazon avait de gros problèmes avec les générateurs de secours qui ne se sont pas enclenchés automatiquement. C'est ce qui explique que presque toutes les instances d'EC2 et 58% des volumes EBS aient été privés d'électricité. Il a fallu environ une heure pour parvenir à remettre en service les générateurs. Alors que l'électricité était rétablie, une partie du cloud d'Amazon est restée indisponible pendant environ trois heures, du fait d'un bug logiciel.
Un crédit à titre d'excuses
Pour éviter que cette panne ne se reproduise, Amazon va ajouter de la redondance de ses Programmable Logic Controllers, qui sont utilisés pour contrôler ses générateurs. Par ailleurs, Amazon va créer un système pour informer les clients sur les événements inhabituels.
Pour compenser les pertes éventuelles, tous les clients européens d'Amazon - qu'ils aient ou non été affecté - recevront un crédit. Enfin, Amazon, sachant ses services essentiels pour sa clientèle d'entreprises, a tenu à s'excuser. Elle a promis qu'elle allait faire de son mieux pour apprendre de ce problème et de l'utiliser pour améliorer ses services.
ICTJournal.ch
Office 365 de nouveau indisponible en Amérique du Nord
En effet, mercredi dernier les utilisateurs se trouvant en Amérique du Nord se sont temporairement retrouvés dans l'impossibilité d'accéder à leurs emails ainsi qu'à la gestion de leur compte. En outre, le service de sauvegarde en ligne SkyDrive était également affecté par la panne.
L'entreprise a indiqué que son centre de calcul pour l'Amérique du Nord avait souffert de problèmes de réseau, l'Europe n'ayant pour sa part pas été touchée. Selon un porte-parole de l'entreprise, les perturbations constatées au sein du service Dynamics CRM online auraient une cause différente, et se seraient limitées à quelques organisations en Amérique du Nord. Microsoft a réitéré son engagement à dédommager les personnes touchées. En effet, elle garantit une disponibilité de son service en ligne à 99,9%.
A noter que ce n'est pas la première panne que connaissent les services cloud de Microsoft cet été. Début aout, l'accès à la suite en-ligne BPOS (produit prédécesseur d'Office 365) avait également été interrompu en Europe, à la suite d'un coup de foudre qui avait touché un centre de données basé à Dublin.
ICTJournal.ch (...)(19/08/2011 16:26:11)
IBM étudie des puces expérimentales qui imitent le cerveau humain
« La puce expérimentale devrait permettre aux ordinateurs de prendre des décisions après avoir rassemblé et analysé d'immenses quantités de données, comme le fait l'être humain quand il compulse des informations pour comprendre une série d'événements », explique Dharmendra Modha, chef de projet chez IBM Research. Ces puces prototypes, dont le modèle est inspiré des systèmes neuronaux, imitent la structure du cerveau et son fonctionnement, à la différence près que cela se passe dans des circuits de silicium, à l'aide d'algorithmes complexes. « IBM espère qu'en reproduisant le fonctionnement du cerveau humain dans une puce, il pourra faire évoluer les ordinateurs pour en faire des machines hautement parallèles, capables de penser par événement, et peu gourmandes en énergie », indique le chef de projet.
Ces futures machines au comportement humain seront très éloignées des ordinateurs actuels, limités en puissance de calcul et qui nécessitent d'être programmés par l'homme pour produire des résultats. «Ces machines vont permettre de dépasser les limites fondamentales des ordinateurs actuels », a ajouté Dharmendra Modha. « On ne pourra pas soutenir des vitesses d'horloge toujours plus élevées. En revanche, le cerveau humain représente l'ordinateur parfait. »
Des connexions qui s'organisent dynamiquement
Comme le cerveau humain, les puces expérimentales d'IBM peuvent organiser leurs connexions dynamiquement afin de sentir, comprendre et agir en fonction d'informations collectées par la vue, l'ouïe, le goût, l'odorat et le toucher, mais aussi réagir à l'analyse d'autres sources, comme la météo ou le contrôle de l'approvisionnement en eau. « Les puces aideront à découvrir des modèles basés sur les probabilités et la mise en relation des informations. Mais elles vont devoir rivaliser avec la taille compacte du cerveau et ses faibles besoins en énergie », a déclaré le chef de projet d'IBM Research. «Nous avons désormais à notre disposition les éléments d'une nouvelle architecture qui peut nous permettre d'effacer, d'une manière toujours plus efficace, la frontière entre le monde physique et le monde numérique », a déclaré Dharmendra Modha.
« Ces puces pourraient aider à gérer l'approvisionnement en eau grâce à une analyse des données en temps réel et une capacité de reconnaissance des formes », explique encore le chef de projet. Reliés à un réseau de capteurs de surveillance mesurant la température, la pression, la hauteur des vagues et des marées océaniques, les ordinateurs équipés de ces puces pourraient lancer des alertes au tsunami. Ces puces aux fonctions cognitives pourraient aussi aider les grossistes à repérer les produits défectueux et doter les smartphones de fonctionnalités permettant de mieux interagir avec l'environnement. IBM et ses partenaires ont déjà appliqué les résultats de leurs recherches pour tester un parcours dans un labyrinthe, un jeu de Pong, ou pour trouver des motifs dans une série de données. Les chercheurs cherchent à obtenir de meilleurs résultats dans la reconnaissance d'images dans une vidéo.
Des phénomènes électriques identiques à ceux des neurones
IBM a réalisé deux puces expérimentales selon le processus de fabrication à 45 nanomètres. Les circuits utilisés sont des circuits classiques mais sont organisées de manière à recréer des phénomènes électriques identiques à ceux des neurones et des synapses dans le cerveau humain, avec des capacités de mémoire, de calcul et de communication intégrées. « Les puces sont fabriquées avec les mêmes transistors utilisés dans la fabrication des microprocesseurs actuels, mais leur câblage est différent », a déclaré Dharmendra Modha. Les processeurs intègrent des « neurones digitaux » autonomes qui fonctionnent comme des unités de traitement basse énergie, et des synapses pour établir les connexions entre eux.
Les neurones et les synapses sont organisés en grille dans une infrastructure de communication qui permet aux neurones d'échanger entre eux des données en temps réel. Les neurones mémorisent les activités récentes, et les synapses se souviennent à quels neurones elles sont associées. Chaque puce abrite 256 « neurones digitaux ». Ceux-ci fonctionnent à une vitesse de 10MHz seulement et échangent en permanence des informations entre eux. L'une des puces contient 262 144 synapses programmables et l'autre 65 536 synapses « d'apprentissage ». Comme dans le cerveau, la synapse établit des connexions entre les neurones digitaux. La fréquence d'un signal envoyé à une synapse détermine la force de la synapse.
Selon le chef de projet, il serait possible d'équiper les ordinateurs actuels avec des unités de traitement basse énergie pour obtenir ce mode de fonctionnement. Mais les bus qui séparent les unités de traitement sont des goulets d'étranglement. Or, à mesure que l'afflux de données augmente, il faut que les noyaux soient capables de fonctionner à des fréquences d'horloge plus rapides. « La fonctionnalité de la puce peut être simulée sur les ordinateurs actuels. Mais les ordinateurs actuels sont très différents du cerveau humain. Alors il faut compenser par la puissance et le volume », explique Dharmendra Modha.
Les puces expérimentales reproduisent un cerveau humain simplifié, doté pour sa part de 100 milliards de neurones et plusieurs milliards de synapses. Selon IBM, ces puces annoncent une machine intelligente qui peut éventuellement être comparée à un « système à l'échelle du mammifère », avec 10 milliards de neurones et 100 000 milliards de synapses, dont la consommation d'énergie et la taille serait proche du cerveau humain. Pour l'instant, le chercheur d'IBM Research ne s'est pas avancé pour dire dans quel délai un tel ordinateur pourrait être réalisé. Mais il pense que les résultats de la recherche actuelle pourraient influer sur la façon dont on construit les ordinateurs.
Développées dans le cadre du projet SyNAPSE
Le cerveau humain est aussi capable de penser « hors des sentiers battus » pour diriger une action, alors quel degré d'intelligence auront réellement ces puces ? Selon le chef de projet d'IBM Research, la puce saura imiter les fonctionnalités du cerveau humain et les neurones digitaux pourront être soumis à un large éventail de stimuli et d'environnements de façon à répondre à des situations de plus en plus variées.
Ces puces ont été développées par IBM avec des partenaires, dans le cadre du projet de recherche SyNAPSE (Systems of Neuromorphic Adaptive Plastic Scalable Electronics) mené sur plusieurs années et centré sur l'informatique cognitive. Il réunit des compétences en neurosciences, en nanotechnologies et dans le domaine des supercalculateurs pour mettre au point cette nouvelle plate-forme informatique. Parmi les partenaires associés à IBM dans la recherche, on compte l'Université de Columbia, l'Université Cornell, l'Université Merced de Californie et l'Université Madison du Wisconsin. IBM et ses partenaires ont également annoncé qu'ils avaient reçu une contribution supplémentaire de 21 millions de dollars de la DARPA (Defense Advanced Research Projects Agency), une agence du Département américain de la Défense chargée de la recherche et du développement de nouvelles technologies pour un usage militaire.
Photo : Dharmendra Modha, chef de projet chez IBM Research (crédit : IBM / IDGNS New York)
Intel défend son programme de mise à jour de processeurs
Intel a défendu son programme payant de mise à jour associé à certains de ses processeurs (Core i3-2312M et 2102, notamment), affirmant que celui-ci permet d'améliorer au fur et à mesure les performances de certaines puces et évite le démontage des machines pour effectuer des mise à niveau.
Le fabricant vend des processeurs sur lesquels certaines fonctionnalités peuvent être ajoutées, puces et/ou de mémoire cache, avec des cartes de mise à niveau que l'on achète chez les revendeurs. Une fois installées sur un PC tournant sous Windows 7, ces cartes téléchargent un logiciel pour achever la mise à jour de la puce. « Le programme de mise à jour de la CPU est en phase pilote et concerne des processeurs premier prix », a déclaré Dave Salvator, un porte-parole d'Intel, qui répondait aux questions concernant le verrouillage de certaines fonctionnalités sur quelques processeurs. Le programme s'adresse à des clients qui souhaitent ajouter des capacités supplémentaires à la puce évolutive d'origine. « C'est une autre façon d'offrir plus de valeur aux utilisateurs », a ajouté le porte-parole. « Ce n'est pas quelque chose d'entièrement nouveau qui nous servirait pour réinventer le monde ! », a t-il ajouté.
Lancé l'an dernier pour un Pentium
Le programme d'upgrade, initialement lancé l'an dernier pour un processeur Pentium, a été récemment enrichi de deux processeurs Core i3 basés sur les puces Sandy Bridge. Le processeur Core i3-2312M pour ordinateur portable peut être mis à niveau en Core i3-2393M pour bénéficier d'une fréquence plus élevée et de davantage de mémoire cache, alors que le processeur Core i3-2102 pour ordinateur de bureau peut évoluer en Core i3-2153 qui lui confère une fréquence d'horloge plus élevée. Selon la page web du service d'upgrade d'Intel, ces améliorations peuvent augmenter la vitesse d'exécution des applications et le traitement graphique de 19 %.
Intel peut vendre des puces à un prix inférieur en n'intégrant pas d'emblée le jeu complet de fonctionnalités, a expliqué Dean McCarron, analyste chez Mercury Research. En même temps, les recettes générées par le programme de mise à niveau du processeur sont marginales et mais sont néanmoins une source potentielle de revenus pour Intel. « Plutôt que de simplement désactiver un certain nombre de fonctionnalités, Intel se donne la possibilité d'en tirer des revenus supplémentaires», a t-il déclaré. « Le coût de fabrication d'un processeur ne change pas, mais quelques fonctionnalités peuvent être désactivées pendant le processus de test », a expliqué l'analyste. Ce programme ne sera probablement pas proposé avec les PC vendus aux entreprises. Il va probablement être réservé aux revendeurs pour des acheteurs qui optent d'abord pour des processeurs bas de gamme et sont ensuite prêts à payer un supplément pour des mises à jour, ceci pour ne pas investir dans un nouveau PC », a déclaré Dean McCarron.
Des ordinateurs identifiés par un label
« Ce n'est pas la première fois que des constructeurs désactivent des fonctionnalités sur des cartes graphiques et des processeurs », ajoute l'analyste de Mercury Research. Par exemple, la puce triple-coeur Phenom d'Advanced Micro Devices (AMD) était livrée avec un coeur inactif. Ce dernier pouvait être activé via un « hack » pour en faire une puce quad-core. Certaines puces destinées au jeu haut de gamme ont également des capacités d'overclocking. Celles-ci permettent aux amateurs d'augmenter la vitesse d'horloge pour doper les performances de leur machine. Dans certains cas, cette mise à niveau par overclocking est gratuite.
Comme l'a précisé Dave Salvator, d'Intel, afin de faciliter la décision d'achat, les ordinateurs portables ou les puces pouvant bénéficier du programme seront identifiés par un label indiquant aux consommateurs que les processeurs sont évolutifs. « Le prix des cartes de mise à jour dépendra du revendeur », a t-il ajouté. Le programme de mise à jour du processeur est prévu pour être accessible cette année aux États-Unis, au Canada, aux Pays-Bas, en Allemagne, aux Philippines, en Indonésie, au Mexique, au Brésil et au Pérou. Mais Intel envisage d'étendre son programme à d'autres pays.
Illustration : les évolutions apportées par le service d'upgrade (source : Intel)
CloudSwing permet d'assembler des composants cloud Open Source
Avec CloudSwing, les développeurs et les départements informatiques des entreprises auront bientôt à leur disposition une autre option pour proposer du PaaS (Platform as a Service). La future offre d'OpenLogic s'appuie sur son coeur de métier qui consiste à fournir du support technique dans le domaine du logiciel open-source.
Les clients de CloudSwing pourront utiliser la nouvelle plate-forme pour assembler des piles logicielles provenant à la fois de produits open-source et commerciaux, et les utiliser pour des services cloud hébergés dans des infrastructures de type Amazon EC2 (Elastic Compute Cloud). Comparée aux offres commerciales PaaS comme Azure de Microsoft, laquelle limite le choix des composants de la pile, l'offre apportera une plus grande flexibilité, avance Kim Weins, vice-présidente senior du marketing d'OpenLogic. Une version test de CloudSwing est actuellement disponible en version bêta privée. Elle sera suivie par une version DevTest comportant plus de fonctionnalités plus tard dans l'année. « La version de production est prévue pour le début de l'année 2012 », a précisé Kim Weins.
En plus d'une série de piles intelligentes préconstruites, CloudSwing offrira un ensemble d'outils basés sur le Web qui permettra aux développeurs d'ajouter et d'enlever facilement des éléments, a précisé OpenLogic. Les piles CloudSwing pourront être gérées à partir d'un portail unique sur lequel les clients auront accès à un ensemble d'outils adaptés à chaque composant. Le service fournira également des outils de contrôle pour chaque composant, qui dépasseront de loin, selon OpenLogic, les offres clouds publics, notamment en matière de CPU et de capacité mémoire. « Pour commencer, OpenLogic proposera un support technique pour CloudSwing sur EC2 d'Amazon, mais ciblera ensuite les services cloud de Rackspace, avec des offres de cloud privés », a déclaré la vice-présidente.
Objectif : bâtir rapidement un prototype
« La version test offre la possibilité de créer rapidement une pile de démarrage à des fins de prototypage », explique Kim Weins. « Une étape dans le développement cloud qui concerne actuellement de nombreuses entreprises. » Un aspect très novateur de CloudSwing concerne une fonction de gestion des dépenses qui permet de suivre le coût des services Cloud relatifs à plusieurs projets. « Nos principaux clients, en l'occurrence de grandes entreprises, ont recourt à des services de cloud public de type pay-as-you-go pour une grande partie de leur prototypage. Ils partagent ces services entre plusieurs équipes de développement et parfois plusieurs sous-traitants », explique Kim Weins. Ce mode de fonctionnement fait que les responsables informatiques ont du mal à suivre l'ensemble des coûts liés aux nombreux petits projets. CloudSwing récupère les données nécessaires directement sur EC2 et les réunit en un seul endroit. Les gestionnaires peuvent également définir des seuils de dépenses à ne pas dépasser sur certains projets. « Le système envoie des alertes quand les limites sont atteintes », indique Kim Weins. « Nous pensons que le service sera très attractif. CloudSwing sera vendu par abonnement et sur une base horaire, mais le prix n'a pas été encore fixé ». Le support technique pour les piles logicielles sera probablement vendu séparément, également sous forme d'abonnement.
Un petit air d'OpenShift et CloudFoundry
CloudSwing ne se limite pas aux composants open-source, mais OpenLogic ne pourra pas offrir un support technique complet pour les composants logiciels commerciaux d'une pile donnée. « Tous nos clients travaillent dans des environnements hybrides », a déclaré Kim Weins. « Nous ne pourrons pas nécessairement corriger un bogue dans un produit Oracle, mais nous pourrons aider notre client à résoudre son problème et à savoir si celui-ci provient ou non du produit commercial qu'il utilise. »
Le service CloudSwing a suscité une réaction mesurée de la part de Jay Lyman, analyste du Groupe 451. D'un côté, « ce service a l'air de ressembler à d'autres services Open Source PaaS, comme OpenShift de Red Hat et CloudFoundry de VMware », a estimé l'analyste. « Mais la fonction de gestion des dépenses est assez unique et intéressante, en particulier pour certains clients qui ont du mal à maîtriser les coûts de licence dans le cloud computing. » Globalement, estime Jay Lyman qu'il est difficile de prédire la réaction du marché à une offre comme celle de CloudSwing, dans la mesure où, comme c'est le cas pour beaucoup d'autres offres dans le domaine du PaaS, l'essentiel du produit reste encore à venir.
Illustration : « choisissez une pile, personnalisez, déployez », annonce le slogan d'Open Logic.
IBM déclare la fin de l'ère du PC, Microsoft parle de l'ère PC-plus
Est-ce nous vivons désormais dans un monde «post-PC» ? Steve Jobs pense définitivement que oui. Selon le patron d'Apple, l'iPad a fait entrer le monde informatique dans l'après-PC. Le voilà désormais soutenu par un responsable d'IBM, Mark Dean, CTO pour le Moyen Orient et l'Afrique, qui vient d'affirmer que Big Blue avait eu raison de sortir de l'activé du PC.
Ce 12 août, IBM fête le 30e anniversaire de l'IBM PC 5150, considéré en général comme la machine qui a marqué le début de l'ère du PC. Pendant des années, l'entreprise informatique a montré la voie pour faire en sorte que, dans chaque foyer, on puisse trouver un ordinateur personnel. En retour, cet objectif a stimulé une industrie qui vend aujourd'hui des centaines de millions d'ordinateurs chaque année. Si l'on songe que Mark Dean a lui-même fait partie de l'équipe qui a aidé à façonner l'activité PC d'IBM, sa déclaration est stupéfiante.
Il félicite IBM d'avoir vendu ses activités informatiques à Lenovo en 2005. « Alors que beaucoup d'acteurs de l'industrie technologique doutaient à l'époque de la décision d'IBM de quitter le secteur, il est aujourd'hui clair que notre entreprise a été à la pointe de l'ère post-PC », vient-il d'écrire dans un blog. Oui, il a vraiment dit ça, ajoutant qu'il n'utilisait plus lui-même de PC. Sans dévoiler la marque du terminal qu'il utilisait, le CTO d'IBM a admis que son outil informatique principal était maintenant une tablette tactile. Selon lui, le PC n'est plus à la pointe de l'informatique. Mark Dean pense que ce sont avant tout les services, plutôt qu'un autre type de terminal, qui poussent dans cette direction. La montée des réseaux sociaux semble lui donner raison. C'est le service lui-même qui est la clé, pas le matériel sur lequel il est utilisé. C'est vrai aussi pour d'autres secteurs de l'industrie informatique.
PC Plus, plutôt que post-PC ?
Evidemment, tout le monde ne partage pas ce point de vue. Dans un autre blog, Frank Shaw, le directeur de Microsoft Corporate Communications, dit pour sa part que l'informatique d'aujourd'hui lui apparaît comme une époque du « PC-plus », ajoutant par ailleurs qu'au cours de la seule année 2011, il se sera vendu plus de 400 millions de PC dans le monde. « Nous allons continuer à faire évoluer cette industrie pour que cette technologie atteigne un, deux ou six milliards d'individus sur la planète », écrit-il de son côté. « Nous le ferons, comme nous l'avons toujours fait, en travaillant avec nos partenaires pour offrir de nouvelles expériences étonnantes aux individus et aux entreprises. » Il semble donc que, pour Microsoft, le PC va encore durer longtemps, très longtemps.
Mais les positions de Steve Jobs - et aujourd'hui celle de Mark Dean - se défendent. L'ordinateur PC que nous avons connu n'est plus. A mesure que l'activité informatique se déplace vers le cloud, la puissance de calcul brute a de moins en moins d'importance. Les traitements importants se font sur le serveur et pas sur l'ordinateur personnel. C'est comme si le monde informatique s'était renversé. Mais est-ce tellement surprenant, dans une société interconnectée en permanence ?
Photo : Mark Dean, CTO pour le Moyen Orient et l'Afrique (crédit : IBM) (...)
Supercalculateur pétaflopique Blue Waters : IBM et le NCSA arrêtent le projet
Du fait de problèmes complexes imprévus et d'un coût trop élevé, IBM et le National Center for Supercomputing Applications (NCSA) de l'Université de l'Illinois ont décidé, d'un commun accord, d'abandonner leur projet de construire un supercalculateur pétaflopique pour les États-Unis.
C'est en 2008 qu'IBM avait démarré un contrat nommé « Blue Waters » pour développer un supercalculateur sur quatre ans. Ce projet de 208 millions de dollars est arrivé à son terme le 6 août dernier. IBM devait livrer la première version du système autour de l'année prochaine. Mais la technologie innovante finalement développée par le constructeur était beaucoup plus complexe que prévue et nécessitait un soutien financier et technique très conséquent, au-delà de ce que Big Blue avait initialement prévu, ont expliqué les deux partenaires dans une déclaration commune. « Le NCSA et IBM ont cherché ensemble plusieurs solutions pour maintenir la participation d'IBM dans le projet, mais n'ont pas réussi à trouver un terrain d'entente, satisfaisant pour chacun, sur la voie à suivre. »
IBM rend les sommes reçues et NCSA le matériel
La firme dirigée par Sam Palmisano va restituer l'argent reçu à ce jour pour le projet et le NCSA va rendre le matériel à IBM. Mais les deux parties ont promis de travailler ensemble sur de futurs projets pétaflopiques. « C'est rare d'entendre dire que les montants allouée pour un projet sont restitués, surtout dans le cas de contrats gouvernementaux », a déclaré Rick Doherty, directeur de Envisioneering Group, une société de recherche en marketing et d'évaluation dans le domaine des technologies.
Financé par la National Science Foundation et l'Université de l'Illinois, le projet Blue Waters avait pour but de construire super-ordinateur sur la base d'un processeur Power7 capable de réaliser 10 puissance 15 (un million de milliards) d'opérations à virgule flottante par seconde, soit un petaflop. S'il avait été achevé, il se serait placé dans les premiers au classement semestriel Top 500 des supercalculateurs les plus puissants au monde. Le NCSA pensait offrir aux chercheurs la possibilité d'utiliser son supercalculateur pour effectuer des simulations complexes, des modélisations ou encore pour mener des travaux très gourmands en calcul pour la physique, les sciences des matériaux, la météorologie, la biologie et d'autres domaines encore.
Un abandon qui n'est pas si surprenant
Pour certains, l'abandon du contrat n'est pas tout à fait surprenant. « IBM a engagé beaucoup de ressources dans le projet », a affirmé Rick Doherty. Big Blue, qui a fourni des logiciels, du matériel et du personnel pour mener à bien le projet, escomptait récupérer une partie de son investissement en vendant des technologies qu'elle développait pour le programme. Finalement, sa stratégie s'est avérée trop onéreuse. « Ce n'était pas un choix rentable pour IBM », a estimé le directeur d'Envisioneering Group.
L'autre défi auquel IBM et le NCSA ont peut-être également été confronté, c'est de devoir faire face à un paysage technologique en permanente évolution. « Le domaine pétaflopique et les 'big data' aujourd'hui, c'est un peu l'équivalent de la recherche sur les voyages spatiaux il y a 40 ans, inconnu et sauvage », a expliqué Rick Doherty. Au cours des quatre dernières années, « les performances techniques ont explosé », jusqu'à parvenir à faire passer la puissance de calcul à l'échelle du pétaoctet, « avec l'utilisation de GPU (processeurs graphiques) à faible énergie », a ajouté Rick Doherty. « Le programme Blue Waters nécessitait sans doute d'être redéfini pour mettre à profit ces nouvelles évolutions ». Mais ces adaptations ont fait « grimper le coût de réalisation au-delà de ce que IBM pouvait supporter », estime-t-il. IBM n'a pas souhaité s'exprimer à ce sujet en dehors du cadre de la déclaration faite conjointement avec le NCSA.
Illustration : projet Blue Waters (crédit : NCSA)
Stockage : Fusion-IO rachète IO Turbine pour 95 millions de dollars
L'Américain Fusion-IO, fabricant de cartes PCIe équipées de mémoire flash, vient d'annoncer qu'il rachetait l'éditeur de logiciels IO Turbine pour 95 millions de dollars. En passant cet accord, Fusion-io compte étendre ses solutions de cache au secteur des environnements virtualisés. Les logiciels développés par IO Turbine, sous le nom d'Accelio, permettent en effet au stockage en cache sur des serveurs d'être partagés sur plusieurs machines virtuelles. Ils viendront compléter les produits de Fusion-IO, qui utilisent des disques SSD comme un cache pour les données massivement utilisées, afin de réduire la quantité de données qui transitent sur les réseaux de stockage. Jusqu'à présent, les solutions de Fusion-io se bornaient à fonctionner avec des applications exploitant des données de façon intensive dans des environnements non virtualisés, a rappelé David Flynn PDG de Fusion-io, dans un communiqué. Dans le domaine des mémoires flash attachées aux serveurs, ce rachat va donc permettre à la société de doubler le marché auquel elle peut s'adresser. « A présent, il n'existe plus aucune application qui ne puisse tirer profit de Fusion-io », considère son PDG.
Une transaction importante pour Fusion-io
Fusion-IO va verser 95 millions de dollars en cash et en actions pour s'offrir IO Turbine, avec une part en espèces qui ne devrait pas excéder les 35 millions de dollars. La transaction devrait être conclue d'ici la fin du mois. La société intégrera les 25 employés de IO Turbine (dont le siège est situé à San José), à ses équipes d'ingénieurs. Fusion-io, dont le siège social est situé à Salt Lake City (Utah), dispose aussi de bureaux à San José où Le Monde Informatique s'est rendu en juin 2010.
C'est un achat important pour Fusion-IO, qui est entré en bourse en juin dernier et a levé 218,9 millions de dollars. Mais il devrait aider l'entreprise à faire son entrée sur un segment qui constitue l'une des plus grandes tendances de l'informatique d'entreprise et pourrait aussi l'aider à pousser la technique d'accélération de données qu'elle a lancée. En ce moment, la concurrence devient plus vive dans ce domaine. Jeudi dernier, Le fabricant de SSD (solid-state disk), STEC vient d'annoncer la sortie de mémoires flash intégrées à des cartes PCIe et d'une plate-forme logicielle pouvant être utilisée avec n'importe quel disque SSD.
Illustration : le logiciel Accelio d'IO Turbine (...)
Dossier : Cloud computing, où sont les standards ?
Depuis deux ans, on assiste à une déferlante du cloud computing qui veut, rappelons-le, qu'un client ne soit plus propriétaire de son infrastructure, mais locataire d'un service rendu par un fournisseur. Et, le client paye ce qu'il consomme. Les solutions et les offres de cloud se multiplient chez les fournisseurs. C'est même devenu la priorité pour les DSI, selon les différentes études menées par les principaux cabinets Forrester, IDC et Gartner. Une priorité, certainement ... mais toujours très complexe, car les DSI se posent de nombreuses questions sur la pérennité et la sécurité des offres, les standards à retenir et l'interopérabilité des différents clouds.
Crédit photo : D.R. (...)
IDC révise ses prévisions sur les ventes de processeurs pour PC
Le cabinet d'études IDC a revu ses prévisions de croissance pour les livraisons mondiales de processeurs pour PC en 2011, en raison d'un ralentissement des ventes d'ordinateurs portables sur des marchés qu'il qualifie de matures, tels que les Etats-Unis et l'Europe. Ces livraisons devraient progresser de 9,3% sur l'année par rapport à 2010, soit 1 point de moins que les 10,3% qu'IDC avait d'abord prévu. « Des vents contraires dans les régions développées affectent la demande de PC », explique le cabinet dans un communiqué. Dans les livraisons de microprocesseurs x86, IDC comptabilise les puces pour ordinateurs portables, postes de bureau et serveurs vendues par Intel, AMD et Via Technologies. Cela n'inclut pas des processeurs tels que l'Itanium d'Intel, le Sparc d'Oracle ou le Power d'IBM qui repose sur des architectures différentes.
Puces pour PC : 9,49 Md$ au 2e trimestre
Entre le premier et le deuxième trimestre 2011, les livraisons mondiales de microprocesseurs pour PC ont baissé de 2,9%. Par rapport au deuxième trimestre 2010, elles n'ont augmenté que de 0,6%, selon IDC. En valeur, ce marché s'est élevé à 9,49 milliards de dollars, en baisse de 4% par rapport au premier trimestre 2011 et en augmentation de 5,4% par rapport au deuxième trimestre 2010.
Le mois dernier, IDC a fait état d'une croissance moindre sur les ventes de PC pour le deuxième trimestre 2011, en partie causée par des investissements moins importants et un intérêt croissant pour les tablettes numériques. Les ventes de PC mondiales ont atteint 84,4 millions d'exemplaires entre avril et juin, progressant de 2,6% seulement par rapport au 2e trimestre de l'an dernier. Le marché des PC a notamment été touché par la baisse de la demande sur les netbooks qui ont représenté 12% des livraisons de PC sur la période comparé aux 22% un an plus tôt, toujours selon IDC.
Les puces Fusion se vendent bien, les processeurs Core aussi
Intel a perdu des parts au profit d'AMD sur ces trois mois. Le fabricant californien de puces détient 79,3% de parts, contre 80,7% au 2e trimestre 2010. Dans le même temps, AMD passe de 19% à 20,4% de parts, gagnant des points sur les segments des ordinateurs portables et de bureau, mais en perdant sur les puces pour serveurs.
Les récents processeurs Fusion qui intègrent un processeur graphique se sont bien vendus. Les modèles de portables intégrant la puce Llano sont disponibles depuis peu, proposés par HP, Toshiba et Samsung entre 500 et 700 dollars. Le mois dernier, AMD a déclaré qu'il avait vendu près de 12 millions de processeurs Fusion au 2e trimestre. Ces puces représentent environ 70% des livraisons de processeurs mobiles du fabricant.
Le ralentissement de la demande pour les netbooks a affecté le processeur Atom d'Intel au 2e trimestre. Toutefois, ses derniers processeurs Core basés sur l'architecture Sandy Bridge réalisent une bonne performance, sur auprès des entreprises. Les modèles Core i3, i5 et i7 représentent près de 66% de toutes ses livraisons de puces, a indiqué le fabricant.
Illustration : puces AMD Fusion (crédit : AMD)
< Les 10 documents précédents | Les 10 documents suivants > |