Flux RSS
Infrastructure serveur
2924 documents trouvés, affichage des résultats 241 à 250.
< Les 10 documents précédents | Les 10 documents suivants > |
(12/10/2011 16:00:28)
Les Etats-Unis veulent reprendre la tête des supercalculateurs avec Titan
La course mondiale au supercalculateur le plus rapide a pris aujourd'hui un nouveau tournant. En effet, Cray a annoncé avoir remporté un contrat avec le Laboratoire National d'Oak Ridge, qui dépend du Département Américain à l'Énergie, pour mettre au point un système capable de délivrer une puissance de calcul pouvant atteindre les 20 pétaflops, soit 20 X (10 puissance 15) opérations en virgule flottante par seconde. Selon Cray, le coût de ce supercalculateur, dénommé Titan, est estimé à plus de 97 millions de dollars. Il doit être achevé en 2013.
Cray ne partira pas de zéro pour le construire, même s'il s'agit d'une mise à jour majeure de son supercalculateur Jaguar déjà installé à Oak Ridge. Selon le centre américain, Jaguar, qui affiche une puissance de calcul de 2,33 pétaflops, est le superordinateur le plus rapide des États-Unis. Son successeur, Titan, sera construit en associant des processeurs GPU et CPU. Chaque node de calcul du système Jaguar actuel affiche deux processeurs AMD Opteron. Le projet de Titan implique, en partie, la suppression d'un processeur Opteron et son remplacement par un GPU Nvidia, l'autre processeur sera remplacé par des puces Interlagos 16 coeurs. Selon Sumit Gupta, directeur du département Tesla GPU chez Nvidia, le système d'Oak Ridge pourra « largement dépasser les 20 pétaflops», s'il est réalisé sur la base de Jaguar. Le nouveau supercalculateur va concentrer la puissance de 18 000 processeurs graphiques Tesla. « C'est une étape vers un plus grand système à 100 pétaflops. C'est à dire que nous nous rapprochons de l'Exascale, » a déclaré le responsable de Nvidia.
Une utilisation de plus en plus importante des GPU
IBM doit également construire pour le Lawrence Livermore National Laboratory un système délivrant une puissance de calcul de 20 pétaflops appelé Séquoia. Ce dernier, dont le coût n'a pas été divulgué, devrait être prêt en 2012. Ces dernières années, les constructeurs de gros systèmes ont commencé à se tourner vers les processeurs graphiques pour améliorer les performances des supercalculateurs. Ces GPU, parfois appelées co-processeurs, peuvent grandement améliorer les capacités de calcul pour réaliser des simulations. « Dans le domaine du calcul haute performance, les GPU ont été largement étudiées sur le plan expérimental, » a déclaré Steve Conway, analyste spécialisé dans l'informatique haute performance chez IDC. Le système d'Oak Ridge « permet de franchir une étape supplémentaire quant à la pertinence de l'usage de ces processeurs dans les systèmes HPC, » a t-il ajouté.
Titan sera utilisé par les chercheurs du laboratoire d'Oak Ridge pour « pousser un peu plus le réalisme des simulations nucléaires », et « améliorer le pouvoir prédictif des simulations climatiques. » Le supercalculateur sera également utilisé pour développer et comprendre le fonctionnement des « nanomatériaux pour les piles, l'électronique et d'autres applications», a indiqué par ailleurs le laboratoire national américain. La construction de supercalculateurs dépend aussi d'autres facteurs, en particulier le coût, la quantité d'énergie dont ils ont besoin, et la capacité des logiciels à travailler à de telles échelles. Selon Steve Conway, il n'existe aujourd'hui que six applications capables de tourner à un pétaflop ou plus, en raison notamment de la complexité à développer des logiciels sachant tourner sur des milliers de processeurs et de tirer profit du parallélisme.
IBM acquiert Platform Computing, spécialiste de la gestion du HPC
Les logiciels développés par Platform Computing permettent aux entreprises de gérer des noeuds de serveurs comme une entité unique, et d'obtenir de grandes puissances de traitement. Les clusters peuvent alors réaliser de gros efforts de calcul, démultipliant les capacités des serveurs. C'est le cas dans la recherche mathématique, quand il s'agit de développer de nouveaux matériaux par exemple, ou pour le suivi en détail des marchés financiers. Selon IDC, les entreprises vont dépenser 14 milliards de dollars pour acquérir des matériels et des logiciels qui répondent aux besoins de cette informatique technique.
Le logiciel de Platform Computing est utilisé par les services financiers, les industriels, les médias numériques, le gouvernement et la recherche. L'entreprise basée à Toronto avait une position dominante dans le domaine très académique de l'informatique partagée, mais a récemment adapté ses produits pour le déploiement de services Cloud. L'entreprise compte plus de 2 000 clients, au nombre desquels Citigroup, Red Bull Racing, l'Université de Tokyo, ou encore le CERN (Organisation européenne pour la recherche nucléaire).
Courtisé de longue date
« Du point de vue d'IBM, cet achat est une bonne opportunité, car IBM pourra utiliser le logiciel de Platform de différentes manières », fait remarquer Charles King, président et analyste principal de Pund-IT. Le logiciel pourrait jouer un rôle clé dans la stratégie d'IBM pour bâtir des services Cloud multiplateformes. L'analyste souligne également que, au cours des 10 dernières années, IBM s'est associé à la plateforme dans diverses applications et travaux HPC mettant en oeuvre l'informatique partagée, si bien que la technologie de Platform Computing est devenue très complémentaire de celle d'IBM.
« IBM courtise Platform Computing depuis longtemps, » a déclaré Charles King. Les activités de l'éditeur, qui emploie 500 personnes dans le monde, seront intégrées dans la division Systems and Technology Group de Big Blue. Ce dernier pense finaliser son achat d'ici la fin de l'année.
Une intégration déjà bien avancée
Le marché du HPC « est en pleine expansion dans un secteur où les charges de travail intenses, très gourmandes en capacité de calcul, sont à la mesure de la demande en traitement de données, et va devenir la norme au cours de la prochaine décennie. L'entreprise canadienne a bâti sa réputation sur un logiciel de planification des tâches, mais propose aussi de très solides solutions construites autour du middleware Symphony. « IBM pense que son expertise dans le HPC sera potentiellement bénéfique au-delà de ce marché, » a déclaré Dave Jursik, président des ventes de HPC au niveau mondial chez IBM. Jusqu'ici, le HPC était « un domaine principalement réservé aux grandes institutions de recherche universitaires et gouvernementales », a-t-il ajouté. Aujourd'hui cependant, des industries très différentes peuvent avoir accès au calcul haute performance, grâce au logiciel d'analyse d'IBM qui permet de traiter de vastes quantités de données et résoudre des problèmes nécessitant du calcul intensif.
Le logiciel de planification de tâche de Platform Computing, mais aussi son expertise dans le middleware Symphony, pourrait aider IBM à mieux servir ces entreprises. « La base commune de ces technologies va contribuer à élargir notre rôle sur le marché et à approfondir l'expertise et la valeur de ce que nous pouvons apporter», a déclaré Dave Jursik.
Telehouse lance une offre cloud en marque blanche
L'hébergeur Telehouse surfe sur la méfiance des revendeurs envers les politiques commerciales des fournisseurs de services cloud pour lancer une offre IaaS (Infrastructure as a Service) en marque blanche. Baptisée Cloud Automation, elle permet aux partenaires de piloter librement la distribution de machines virtuelles hébergées dans le cloud public de Telehouse, sans compétences particulières, à travers une interface web. Libre à eux de fixer le prix du service et de contrôler l'utilisation des ressources par leurs clients. La facturation des entreprises est également réalisée directement par les revendeurs à travers un système de facturation intégré.
Pour commercialiser ce service qui permet de proposer une offre IaaS sans investissement en matériel, l'hébergeur cible les agences web, les éditeurs indépendants, les VARs, les SSII et les intégrateurs. Il organisera une démonstration de sa solution lors des salons IP Convergence et Cloud and IT Expo qui se tiendront du 18 au 20 octobre au parc des expositions de la porte de Versailles à Paris. (...)
L'Open Group publie un guide sur le cloud
Le guide Cloud Computing for Business jette un regard en profondeur sur le cloud et expose comment les entreprises peuvent en tirer des bénéfices. Cette publication est née de l'initiative de l'Open Group, un consortium réunissant des utilisateurs et des fournisseurs qui travaillent sur des offres de cloud sécurisées, sur l'évolutivité et l'agilité des entreprises ainsi que sur leurs avantages financiers. L'organisme inclut des fournisseurs (SAP, IBM, Oracle, Capgemini et HP) et compte également des utilisateurs français (Agilecom, Arismore, BNP-Paribas, le Ceisar ou encore France Télécom). Quant à l'ouvrage, il est destiné aux cadres supérieurs, aux chefs et aux architectes d'entreprise, ainsi qu'aux directions informatiques et marketing. Chris Harding, directeur de l'interopérabilité au sein de l'Open Group, a déclaré: « Ce livre accorde une attention particulière aux exigences techniques et commerciales des entreprises. Il vise à aider ses lecteurs à tirer le plus de profit possible de leurs projets clouds. »
Acheter des services, maîtriser les risques, établir un ROI
Les principaux thèmes abordés dans cet ouvrage concernent la vision qu'ont les entreprises du cloud computing, l'achat de services, la compréhension des risques, la construction d'un ROI, et les défis d'autres offres de cloud.
Dans un récent sondage, plus de la moitié des entreprises déclaraient que leur priorité absolue était de se préparer à passer au cloud computing, plutôt que d'envisager une migration complète. Lors du forum annuel du World Cloud Computing qui s'est déroulé en juin dernier à Londres, le spécialiste des services d'infrastructures Computacenter avait interrogé plus de 200 décideurs IT sur le sujet. Globalement, 51 % des entreprises avaient déclaré que leur principale priorité cette année était de rendre leur infrastructure informatique prête pour le cloud.
L'enquête a également révélé que 28% des organisations cherchaient à migrer plusieurs de leurs traitements informatiques dans le cloud. Plus prudentes, 72% des entreprises interrogées indiquaient préférer s'en tenir aux fonctions de tests individuels, telles que la messagerie électronique, le testng/développement et l'hébergement.
Les membres de l'Open Group peuvent télécharger gratuitement le guide Cloud Computing for Business. Une copie papier de l'ouvrage est disponible au Royaume-Uni pour 37 £.
(...)
Dane-Elec refinance sa dette
Dane-Elec fabricant et distributeur de mémoire, qui contrôle aussi le distributeur Intervalle, a été refinancé par ses banques. La dette financière brute se monte à 14,6 millions d'euros, elle sera échelonnée jusqu'à octobre 2017. Par ailleurs, la filiale américaine a obtenu le renouvellement et l'extension de sa ligne de crédit.
La société a par ailleurs remanié ses activités, s'est déployée dans certains pays et a entamé un plan de revitalisation.
OpenWorld 2011 : Benioff défend son cloud multi-tenant
«Larry just cancelled my keynote tomorrow! Sorry #oow11! Join me @ St. Regis AME Restaurant at 10:30AM! The cloud can't be stopped!» C'est dans ces termes que Marc Benioff, CEO de Salesforce.com, a annoncé mardi soir sur Twitter que sa conférence prévue le lendemain dans le cadre de l'Oracle OpenWorld avait été annulée, et qu'il la remplaçait par une présentation sauvage dans le restaurant du tout proche hôtel St. Regis.
«Rien ne peut arrêter le cloud»Mercredi matin donc, l'entreprise a organisé une action coup de poing, des collaborateurs de Salesforce.com défilant devant le St. Regis avec des pancartes annonçant «Benioff trop innovant pour l'Oracle OpenWorld» ou «rien ne peut arrêter le cloud».
Dans le restaurant rempli à craquer, Marc Benioff est revenu sur l'annulation de sa conférence, qu'il attribue à ses remarques désobligeantes à propos du discours inaugural de Larry Ellison et à des divergences de vue sur ce qu'est le cloud computing - Oracle et Salesforce.com arguant chacune que l'autre ne propose qu'une contrefaçon de cloud.
Dans la version de Benioff, le cloud est par essence multi-tenant et implique de se débarrasser du hardware et du software, précisément les domaines d'où Oracle tire ses revenus. Le CEO de Salesforce.com a également expliqué sa vision de la "social enterprise" en s'appuyant sur des cas concrets de clients tels que Burberry et KLM.
«J'ai été à bonne école»Très fier de son action coup de poing organisée dans l'urgence «à l'aide des réseaux sociaux», Marc Benioff a reconnu qu'au final l'annulation avait été plutôt bénéfique pour son entreprise et négative pour Oracle du fait de son impact médiatique. Il a ajouté que sa manoeuvre était très proche des pratiques de Larry Ellison avec lequel il a travaillé chez Oracle. «J'ai été à bonne école», a-t-il conclu.
ICTJournal.ch
UrbanDive de Pages Jaunes se ressource dans le cloud d'Amazon
Pages Jaunes est bien sûr connu pour ses annuaires téléphoniques. Or son modèle économique repose sur les publicités passées par les entreprises répertoriées. L'intérêt de l'entreprise est donc de multiplier les occasions de faire voir des publicités par ses utilisateurs. Dans ce cadre, Pages Jaunes a réalisé un site de navigation immersive avec réalité augmentée, UrbanDive. L'internaute se déplace donc dans une ville et peut accéder à des informations publicitaires sur les enseignes présentes sur son parcours (en plus d'autres types d'informations d'intérêt général). Aujourd'hui, 150 villes sont répertoriées et il y aura 200 villes pour 50 To de données à la fin 2011.
Des besoins en ressources à géométrie variable
Or un tel service très innovant ne pouvait pas monopoliser des ressources informatiques importantes et surtout de façon continue alors qu'aucune certitude n'existait quant au trafic sur le service. Pages Jaunes a donc décidé de profiter de la souplesse offerte par le cloud computing.
L'architecture technique a été réalisée par la SSII spécialisée Ysance dans le cadre de son offre Ycloud. L'hébergement en lui-même a été confié à Amazon. Ces choix permettent de garantir une évolutivité des moyens techniques en toute souplesse mais aussi en garantissant la qualité des ressources.
Le coût du projet n'a pas été révélé.
Eric Haddad : Les trois ambitions de Google dans le cloud, SaaS, PaaS et DaaS
Le responsable de l'activité entreprise chez Google France, Eric Haddad dresse un premier bilan de son arrivée récente au sein de l'éditeur. Google Apps, App Engine, stratégie Device as as Service, les sujets ne manquent, ni les ambitions.
Pouvez-vous nous faire un point sur les activités de Google Entreprise sur le marché français ?
Nous ne communiquons pas de chiffres sur le marché français, mais sur le plan mondial, nous disposons de 4 millions d'entreprises clientes. Je remarque que nos marchés (le SaaS avec Apps et le PaaS, App Engine) ont timidement démarré il y a 3 à 4 ans avec quelques réalisations importantes, comme la signature d'un contrat avec Valeo (38 000 utilisateurs de Google Apps). Ces pionniers nous ont beaucoup apporté en retour d'expérience. Mais depuis quelques mois, je ressens dans mes dialogues avec les DSI Français, une phase de prise de décision beaucoup plus importante.
Comment expliquez-vous ce changement ?
Il existe plusieurs facteurs. Ainsi, les investissements massifs, rigides sont de plus en plus difficiles à faire passer au sein des entreprises. Nos solutions sont rapides à installer et s'adaptent aux évolutions des sociétés. En deuxième lieu, est-ce que le DSI doit être le patron de la messagerie ? Ce n'est pas sûr, il est peut-être là pour la gouvernance de l'IT. Enfin, la consumérisation des usages fait que l'utilisateur veut retrouver au sein de l'entreprise son environnement de messagerie et collaboratif.
Avec ces paramètres, nous nous attendons à une accélération de la signature des contrats pour les Google Apps. (...)
< Les 10 documents précédents | Les 10 documents suivants > |