Flux RSS

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

108538 documents trouvés, affichage des résultats 541 à 550.

< Les 10 documents précédentsLes 10 documents suivants >


(24/02/2012 12:17:54)

La CE veut favoriser l'efficacité énergétique des supercalculateurs

Le calcul exascale est utilisé dans différents secteurs industriels pour effectuer des simulations rapides. Le projet annoncé par la Commission européenne ce mois-ci vise à doubler l'investissement dans le domaine du calcul haute performance, lequel passera de 630 millions actuellement à 1,2 milliard d'euros avant 2020. Cependant, les infrastructures HPC demandent beaucoup d'énergie et de ressources. Comparativement, un supercalculateur peut consommer à lui tout seul plus d'énergie qu'un centre de calcul de taille moyenne et peut coûter plus de 75.000 euros par jour en frais de fonctionnement.

CoolEmAll, un consortium d'entreprises et d'administrations, prévoit de s'attaquer à la question en développant deux outils majeurs destinés à aider les industries à mieux contrôler et à bien gérer la consommation d'énergie de leurs supercalculateurs. L'élément principal du projet se présente comme un ensemble de designs hardware Open Source basé sur un serveur haute densité du nom de RECS Compute Box sur lequel travaille déjà la start-up allemande Christmann Informationstechnik.

Un datacenter dans une boite

Qualifiée de « datacenter in a box », la RECS Compute Box se compose de plusieurs racks serveurs haute densité, chacun contenant jusqu'à 18 modules saturés de processeurs. Ce qui signifie qu'une seule de ces armoires peut contenir jusqu'à 600 lames. Cette configuration représente environ 10 fois ce que l'on trouve habituellement dans des racks traditionnels. Chaque Compute Box contient également 18 capteurs thermiques et 18 capteurs électriques intégrés dans l'infrastructure « baseboard », ce qui permet de contrôler séparément l'état du réseau, la vitesse du ventilateur et la consommation électrique de chacun des 18 blocs.

La Commission européenne espère que ces designs haute densité et ces serveurs à haut rendement seront commercialisés et se retrouveront dans les futurs projets HPC européens. Outre le matériel, CoolEmAll se penche également sur le développement de logiciels de simulation, de visualisation et d'aide à la décision pour proposer un outil de modélisation en temps réel pour les entreprises qui utilisent le calcul haute performance. L'objectif est de permettre aux planificateurs des centres de calcul d'estimer l'efficacité énergétique en fonction de l'emplacement physique des serveurs, d'effectuer des mesures pour optimiser le refroidissement, et d'utiliser au mieux les applications de contrôle.

Le projet CoolEmAll réunit sept organismes de recherche dans le domaine du HPC, dont le Groupe 451, le Poznan Supercomputing and Networking Center (PSNC) en Pologne et le High Performance Computing Center Stuttgart (HLRS) de l'Université de Stuttgart, en Allemagne.

(...)

(24/02/2012 11:29:48)

Pastebin, le site vitrine des hackers, subit des attaques DDOS

Pastebin, un site privilégié par les pirates pour afficher publiquement leurs exploits et exhiber les données sensibles volées, a subi une rafale d'attaques par déni de services (DDOS). Selon les administrateurs, ces attaques sont destinées à rendre inaccessible le site, notamment utilisé par les Anonymous pour communiquer certaines de leurs actions d'éclat.

La première attaque a commencé mercredi dernier, selon un message publié sur le site Pastebin. Les administrateurs de ce dernier indiquent qu'ils ont initialement bloqué 4 000 adresses IP malveillantes. Mais les attaques ont augmenté depuis. Pastebin a ensuite alerté sur des messages Twitter que le nombre d'ordinateurs réalisant ces attaques était passé à 9000, puis à 12 000, 17 000 et même 20 000. « Ce nombre augmente de minute en minute », a écrit Pastebin. Dès jeudi, les administrateurs ont déclaré que quelque 22 000 ordinateurs les ont attaqués.

Des PC infectés par un botnet à l'insu de leurs utilisateurs

« Ces adresses IP sont susceptibles d'appartenir à des personnes innocentes qui n'ont aucune idée que leur ordinateur est utilisé à cette fin », a déclaré Pastebin. « Il est fortement recommandé de toujours avoir un logiciel antivirus à jour et un bon pare-feu actif ». Le site Internet a également indiqué qu'il prévoit de publier la liste des adresses IP à l'origine des attaques afin que les gens puissent vérifier si leur ordinateur est infecté par le code botnet.

A l'origine, Pastebin est une plate-forme destinée à faciliter le partage d'informations et l'échange de lignes de code entre programmeurs. Les hackers se tournent fréquemment vers Pastebin pour publier des données qu'ils ont subtilisées bien que le site décourage l'affichage de logins, de mots de passe et d'autres données sensibles. Reste à savoir qui est l'origine de ces attaques...

(...)

(24/02/2012 09:38:10)

Wikirating, une agence de notation financière participative

Depuis octobre 2011, les internautes ont la possibilité de noter eux-mêmes les pays et exprimer eux-mêmes leur estimation de la capacité de remboursement d'un pays. Le site Wikirating vise à donner une note alternative à celle des agences de notations. Cette idée est née début 2011 dans la tête de deux ingénieurs basés en Suisse, Dorian Credé et Erwan Salembier, face à la puissance des agences de notation, le manque de transparence dans leur méthodologie, et l'absence d'alternative offerte aux investisseurs. Né après 1 an et demi de développement, ce site est basé sur le mode wiki: les utilisateurs sont aussi des acteurs. Sa mise en page ressemble d'ailleurs à s'y méprendre à l'encyclopédie participative Wikipedia. En quelques mois, le site a déjà rencontré un grand succès puisqu'il compte quelques 400 membres et environ un millier de nouveaux visiteurs chaque jour.

Polling, la note des internautes

Sous le nom de Polling, le premier indice a été déterminé par les internautes entre le 18 et 30 décembre 2011. Durant cette période, les 198 pays ont reçu 2542 votes uniques, dont 61 ont reçu plus de 10 votes. C'est ce qui a permis de déterminer la note des différents pays. Au final, les pays du Nord sont généralement notés plus sévérement par les internautes qu'ils ne le sont pas les agences de notation historique : Ainsi par exemple, pour la période étudiée, la Suisse obtient un AA+ sur Wikirating contre un AAA pour les agences Standard & Poor's, Moody's et Fitch. Autre exemple, la France obtient un A+ sur Wikirating contre un AAA pour les agences Standard & Poor's, Moody's et Fitch.

Associer un côté humain à la notation

Un second indice, le « Sovereign Wikirating Index » ou SWI, est, quant à lui, calculé de manière mathématique. Pour définir la note d'un pays, indicateur de sa capacité de remboursement, cet indice mêle des données de macro-économiques obtenues auprès de la BCE ou du FMI avec des critères plus humains. Ainsi cet indice est calculé à partir de la dette publique (50% du calcul), la balance des paiements (20%), le taux de croissance (10%), l'inflation (10%), le taux de chômage (10%). Le résultat est ensuite ajusté en la multipliant par un «facteur d'ajustement» composé de l'indice de développement humain (IDH) (pondération 60 %), de l'indice de perception de la corruption (pondération 20 %) et de l'indice de stabilité politique (pondération 20 %). Cette nouvelle agence de notation saura-t-elle s'imposer au monde de la finance?
ICTjournal.ch (...)

(24/02/2012 09:32:22)

Une puce de monitoring ECG sans fil développée au CSEM

Initié par le Centre Suisse d'Electronique et de Microtechnique (CSEM), le projet européen  IcyHeart a pour but de développer une solution de monitoring ECG (électrocardiogramme) sans fil, discrète et alimenté par batterie pour une utilisation ambulatoire et capable d'analyser la forme de l'ECG et de détecter des événements anormaux en temps réel. Ce projet de recherche devra permettre des avancées technologiques majeures dans les domaines des solutions de détection, de conversion, de traitement et de transmission hautement intégrées dans une puce unique. La technologie d'IcyHeart devra générer une haute valeur de marché pour les PME européennes qui développe de nouveaux produits de monitoring cardiaque pour des environnements privés et professionnels.

Le projet IcyHeart est soutenu par la Commission européenneet comprend des chercheurs dans les technologies de pointe et des PME basés dans 5 pays européens. Il court sur 21 mois et il a démarré en octobre 2011.

ICTjournal.ch (...)

(24/02/2012 09:21:51)

CIO PDF 48 : S'adapter à chaque usage et à chaque usager

S'adapter est une règle darwinienne à laquelle les responsables de systèmes d'information doivent se conformer sous peine de disparaître. S'adapter aux utilisateurs fantasques dotés de terminaux imprévus. S'adapter aux citoyens adeptes du numérique. S'adapter aux exigences des DAF et des trésoriers. Un défi permanent illustré dans le numéro 48 de CIO.pdf.

Le dossier d'ouverture se consacre aux nouveaux usages et aux nouveaux terminaux. Chacun veut désormais utiliser le terminal de son souhait pour accéder au système d'information ou aux services de l'entreprise, qu'il soit collaborateur ou client. A la DSI de s'adapter. Côté technologies, la virtualisation, les Apps ou le HTML 5 s'avancent comme des solutions. Les témoignages de Jean-Claude Zeifman (GDF Suez), Antonio da Silva (Laboratoires Roche), Jean-Luc Pinté (Conseil Général de la Côte d'Or), François Couton (Canal+), Sandrine Dangreville (Région Île-de-France), Patrick Perret (Boulanger), Jean-Michel Texier (AlloCiné), Flora Queiroz (Ville de Saint-Germain-en-Laye) illustrent le propos.

S'adapter au citoyen numérique comme au DAF et au trésorier

Yvonne Gellon, la nouvelle présidente du Coter-Club, revient dans CIO.PDF sur une autre adaptation : celle au citoyen numérique. Le Coter-Club réunit en effet les DSI de collectivités territoriales. Autre adaptation à subir : les directeurs financiers dictent de plus en plus leur loi, ce qui implique que les DSI leur rapportent désormais au lieu de le faire au PDG. Nos confrères de CIO Etats-Unis ont cherché comment parler aux DAF pour qu'ils vous comprennent. Et si vous ne parlez que technique, sachez que c'est raté. Nous aurons l'occasion de revenir sur le sujet dans un très prochain numéro. Collaborateur direct du DAF, le trésorier a aussi ses demandes auxquelles il concient de s'adapter. C'est ce qu'explique Emmanuel Arabian, viceprésident de la commission S.I. de l'AFTE (Association Française des Trésoriers d'Entreprise). Il reste aux DSI à ne pas devenir des dinosaures menacés de disparition. Adaptez-vous !

Lire CIO.PDF 48

(...)

(24/02/2012 10:47:16)

Zettaset prépare des outils de gestion d'accès pour Hadoop

La gestion du contrôle d'accès aux données en environnement Hadoop est souvent considérée comme un défi. Dans ce domaine, l'éditeur californien Zettaset va ajouter une couche de sécurité à sa plateforme Hadoop Orchestrator qui fonctionne avec les principales distributions Hadoop. Ces outils permettront  aux administrateurs IT d'installer un contrôle d'accès basé sur des rôles. Il sera ainsi possible de définir plus précisément ce que chaque catégorie d'utilisateurs peut ou ne peut pas faire avec les données sur la plateforme. Cela donnera en particulier les moyens d'empêcher l'exécution de certaines tâches, de même que l'importation et l'exportation de certains types de données.

Avec SHadoop, les administrateurs pourront définir une politique de sécurité pour l'ensemble des utilisateurs accédant au système Hadoop, utilisateurs dont ils pourront suivre l'activité. De prochaines versions de ces outils permettront de chiffrer les données stockées dans un cluster Hadoop ou transmises entre deux noeuds, promet Zettaset. Un nombre croissant d'entreprises ont commencé à utiliser le système de gestion de fichiers distribués d'Apache Hadoop pour stocker et de gérer des données provenant de sources disparates (réseaux sociaux, e-mails, fichiers vidéo, capteurs, etc.) beaucoup plus efficacement qu'avec une base de données relationnelle. Cette technologie est adaptée à l'analyse des énormes volumes d'information ainsi récupérés (chiffrés en petaoctets). Mais sa mise en oeuvre génère aussi de nouveaux problèmes de contrôle d'accès. 

Les analystes soulignent le besoin de sécurité

Contrairement aux bases de données traditionnelles, Hadoop ne donne pas beaucoup de moyens au-delà des listes de contrôles d'accès (ACL, Access Control Lists) et de l'authentification basée sur le protocole Kerberos. Authentifier les utilisateurs ne suffit pas. Il faut pouvoir attribuer plus finement les autorisations d'accès, souligne David Menninger, analyste de Ventana Research. « Vous pouvez séparer les données sensibles en différents fichiers, noeuds et clusters, mais cela ne vous donne toujours pas le niveau de contrôle auquel on est habitué avec les bases relationnelles ». De fait, la sécurité reste l'une des faiblesses pointées par les entreprises intéressées par Hadoop. Dans une étude de Ventana Research publiée l'an dernier, moins de la moitié des personnes interrogées se sont déclarées satisfaites des capacités de sécurité et de chiffrement d'Hadoop, contre 70% pour ceux recourant à d'autres technologies de bases de données.

Nathaniel Rowe, analyste d'Aberdeen Group, pense lui aussi que les fonctions de sécurité des distributions Hadoop actuellement disponibles ne correspondent pas suffisamment aux besoins des entreprises. « C'est une plateforme qui se développe extrêmement rapidement, l'engouement est incroyable, mais sur le terrain de la sécurité, elle n'est pas toujours à la hauteur », reconnaît-il.

Zettaset présentera sa couche SHadoop à la prochaine conférence RSA qui se tiendra à San Francisco du 27 février au 2 mars 2012.

(...)

(23/02/2012 17:29:04)

Microsoft va construire un second datacenter à Dublin

Microsoft a investi 130 millions de dollars environ pour construire un second datacenter à Dublin. L'éditeur a indiqué aujourd'hui qu'il avait besoin de davantage de ressources pour faire tourner ses services cloud. Cette expansion répond à une demande européenne accrue pour ses plates-formes en ligne telle que Office 365, Windows Live, Xbox Live, Bing et Windows Azure. Ce datacenter sera voisin d'un centre de calcul qui a également ouvert ses portes dans la capitale irlandaise. Sa construction a déjà démarré, a déclaré un porte-parole de l'éditeur, mais il n'a pas précisé sa date d'entrée en service.

La taille de ce datacenter atteindra le tiers de celle de l'ancien, soit environ 10 400 mètres carrés. Il disposera d'une puissance totale allant jusqu'à 13 mégawatts, contre 16 mégawatts et 28 100 mètres carrés pour le centre voisin. Cela signifie que la nouvelle structure sera en mesure d'accueillir des serveurs avec une densité de puissance maximale de 1,3 kW par mètre carré. Cette densité accrue de puissance permettra à Microsoft d'augmenter le nombre de serveurs par rack dans cet espace avec les ressources nécessaires pour les refroidir et assurer leur bon fonctionnement. La firme de Redmond est convaincue que son modèle de refroidissement est à la hauteur, comme l'a indiqué Stephen McGibbon, directeur technique du groupe Europe, Moyen-Orient et Afrique.

L'air extérieur pour le refroidissement principal

Tout comme son aîné, ce datacenter fera largement appel à l'air extérieur pour son refroidissement tout au long de l'année ce qui devrait conduire à une meilleure efficacité, en terme de puissance, selon Microsoft. Si le refroidissement de l'air libre n'est pas suffisant, l'eau pourra également être utilisée pour rafraîchir l'air entrant. Et si le temps devient trop froid, l'air chaud du datacenter sera recyclé pour chauffer l'établissement.

La performance énergétique (PUE) de l'ancien datacenter se situait à 1,25, avait indiqué Microsoft lors de son ouverture en 2009. C'est proche des 1, 07 proposés par des installations comme celles de  Facebook à Prineville, dans l'Oregon, et mieux que la moyenne de 1,6 atteinte en 2009 par Microsoft. Le groupe n'a toutefois encore pas fourni un chiffre PUE cible pour son  nouveau centre de calcul.

Des groupes électrogènes de secours

L'an dernier, une panne de courant à Dublin avait  affecté les services en ligne de Microsoft et d'Amazon, qui dispose également d'un datacenter dans la capitale irlandaise. Les clients européens de Microsoft Business Productivity Online Standard Suite, le prédécesseur d'Office 365, avaient été affectés par cette interruption de service. Microsoft était parvenue à remettre le tout en route après quatre heures d'interruption.

Le futur datacenter de Dublin possèdera sa propre infrastructure énergétique de secours pour être auto-suffisant pendant un certain temps, selon Stephen McGibbon. En cas de panne d'électricité, Microsoft proposera des offres avec des groupes électrogènes diesel pour assurer l'activité des services.

(...)

(23/02/2012 16:26:00)

Apple a vendu 18,7 millions d'iPad au 4e trimestre 2011

Entre ses iPad et ses Macbook, Apple a vendu quelque 23,4 millions d'ordinateurs portables dans le monde au quatrième trimestre 2011. Si on considère l'iPad bien sûr comme un ordinateur portable ce qui n'est pas le cas de tous les cabinets d'études. Selon les chiffres provisoires publiés par NPD DisplaySearch, la marque à la pomme a vu ses ventes progresser de plus de 128% par rapport au 4e trimestre 2010.

La tablette numérique d'Apple, l'iPad, arrive largement en tête des ventes dans le monde, et donc des choix des consommateurs, avec 18,7 millions d'unités vendues au cours du quatrième trimestre 2011 - sur l'année, il s'en est écoulé 48,4 millions -, selon NPD DisplaySearch. A titre de comparaison, la deuxième meilleure performance est à mettre au crédit d'Amazon, avec sa gamme Kindle, et 5,3 millions de modèles cédés.

Du côté des ordinateurs portables, HP domine les débats avec 8,7 millions de ventes, devant Dell (6,7) et Acer (6,6). Apple clôt le top 5 avec 4,6 millions d'unités vendues. Au total, 88 millions de PC portables et tablettes numériques ont trouvé preneur au quatrième trimestre 2011, marqué notamment par les achats de Noël.

(...)

(23/02/2012 16:07:37)

SWF : un service cloud pour automatiser les processus chez Amazon

Amazon Web Services (AWS) vient de lancer un service baptisé Simple Workflow Service (SWF) qui doit permettre aux entreprises d'automatiser leurs processus métiers, via des applications dans le cloud et sur site. « Avec SWF, les développeurs vont bénéficier d'un contrôle complet quant à la mise en oeuvre des étapes de traitement et la coordination des tâches pour les gérer, sans avoir à se soucier de la complexité sous-jacente, comme le suivi de leur déroulement et leur maintien jusqu'au dernier état, » a déclaré Amazon.

Ce service est toujours en version bêta, mais il a déjà été utilisé pour construire des applications pour le traitement d'image, l'encodage vidéo, l'infrastructure de provisionnement et la gestion des processus. Parmi les premiers utilisateurs du service, on trouve le Jet Propulsion Laboratory de la Nasa et Amazon lui-même.

Tous les flux de travail comprennent un certain nombre de tâches différentes qu'il faut coordonner. Par exemple, un système de traitement d'image comprend l'acceptation du fichier téléchargé, son stockage, son archivage, la validation du format et de la taille du fichier, et ainsi de suite, comme le détaille un article publié sur le blog d'Amazon. L'architecture sous-jacente est décomposée en collaborateurs et en décideurs. Chaque tâche est une action désignée comme collaborateur ou décideur dans SWF. Cette hiérarchie permet ensuite de coordonner les tâches. « SWF se charge de négocier les interactions entre les deux, » selon Amazon.

Un framework Java pour simplifier l'utilisation de SWF

Tout type de langage de programmation peut être utilisé pour écrire des collaborateurs et des décideurs, à condition que celui-ci soit capable de communiquer avec l'API utilisée par Amazon SWF pour son service Web. Il peut tourner dans le cloud, sur site ou dans un environnement mixte combinant les deux. Pour simplifier l'utilisation de SWF, Amazon a également créé l'AWS Flow Framework, qui fait partie du SDK AWS pour Java. De la même manière, la console AWS Management inclut le support complet pour le service SWF.

Les entreprises peuvent commencer à tester le service SWF gratuitement, et lancer jusqu'à 1 000 flux de travail et 10 000 tâches par mois et les laisser tourner l'équivalent de 30 000 workflows/jour. Amazon SWF est actuellement disponible uniquement dans l'Est des États-Unis, mais selon une FAQ sur SWF, Amazon prévoie assez rapidement de rendre son service disponible dans d'autres régions.

(...)

< Les 10 documents précédentsLes 10 documents suivants >