Flux RSS

Infrastructure serveur

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

2924 documents trouvés, affichage des résultats 651 à 660.

< Les 10 documents précédentsLes 10 documents suivants >


(26/01/2011 16:36:54)

Intel travaille sur une technologie bloquant les attaques zero days

Justin Rattner, CTO d'Intel, a expliqué à nos confrères de Computerworld,  que des chercheurs internes travaillent sur une technologie de sécurité qui permet d'arrêter toutes les attaques zero-day. Sans donner beaucoup de détails à ce sujet, il espère que les travaux seront publiés cette année. « Je pense que nous avons quelques idées pour changer la donne vis-à-vis des logiciels malveillants », a déclaré le CTO d'Intel. « Nous allons voir un saut extrêmement imprtant dans la capacité des futurs terminaux, ordinateurs, smartphones, tablettes ou les télévisions connectées, à se défendre contre les attaques. »

Il a précisé que la technologie proposée ne sera pas basée sur les signatures, comme le font les spécialistes de la sécurité actuellement. La détection de logiciels malveillants basés sur la signature repose sur la recherche de modèles connus au sein du code malveillant. Cependant, les attaques «zero day» ou de malwares plus complexes n'ont pas de code connu et il est donc difficile de s'en prémunir. « Nous avons découvert une nouvelle approche qui empêche les attaques les plus virulentes. Elle devrait arrêter celles de type zero-day». La technologie comprendra un aspect matériel, sans savoir pour l'instant si une brique logicielle est envisagée.

Fiabilité et avantage concurrentiel

Dan Olds, analyste chez Gabriel Consulting, indique que si cette technologie fonctionne comme Justin Rattner l'explique, il pourrait s'agir d'une avancée majeure pour la sécurité informatique. « Si Intel dispose d'une technologie matérielle qui peut sûrement arrêter les attaques zero-day, ce serait une grande victoire dans la guerre contre les logiciels malveillants », confirme le consultant. « La clé, c'est que ce système doit être fiable. Il doit avoir la capacité de discerner le logiciel légitime du programme malveillant. En résolvant ce problème, cela donnera un avantage concurrentiel à Intel par rapport à AMD. » Il ajoute que la technologie qui repose sur du matériel peut être très intéressante. « La meilleure protection est une combinaison de matériel et de logiciels. La sécurité du matériel peut être plus forte et plus rapide dans certaines situations, mais elle n'est pas aussi souple que les mécanismes purement logiciels. Le grand changement ici, c'est qu'Intel devrait tirer parti des fonctions de sécurité dans le circuit ou le processeur » conclut Dan Olds.

Justin Rattner a déclaré que les chercheurs d'Intel ont travaillé sur cette technologie de sécurité avant que la compagnie ne propose d'acquérir McAfee, spécialiste de logiciel de sécurité, pour 7,68 milliards de dollars. Toutefois, cela ne signifie pas que McAfee serait écarté des travaux menés.

Illustration : Justin Rattner, CTO d'Intel
Crédit Photo: D.R
(...)

(26/01/2011 16:27:21)

L'Itanium Poulson attendu en 2012

Du 20 au 24 février 2011 à San Francisco, les principaux concepteurs de processeurs partageront leurs travaux à l'occasion de la conférence International Solid State Circuits. Intel et IBM en profiteront pour lever le voile sur leurs prochaines générations de puces pour grands systèmes. Ces dernières années, les fabricants de processeurs avaient multiplié les coeurs, augmenté les cadences et étoffé la mémoire cache pour améliorer les performances. Et pour permettre aux serveurs de renforcer leur disponibilité et leur fiabilité, les fondeurs avaient également bardé leurs plates-formes de fonctions d'auto-diagnostique.

Dans un mois environ, Intel dévoilera sa prochaine génération de puces Itanium encore connue sous le nom de code Poulson. Attendu en 2012, ce processeur fort de huit coeurs serait doté de 50 Mo de cache, selon les premières informations livrées par le fondeur. Ces puces équiperont les serveurs haute disponibilité sur base IA64 que l'on retrouve principalement chez HP (Integrity NonStop). Les processeurs Pulson seront l'occasion pour Intel de tester certaines technologies qui pourront ensuite arriver sur les puces x86 pour serveurs et PC, explique Dean McCarron, analyste chez Mercury Research. Ces processeurs mettront à la fois l'accent sur les performances et la maitrise de la consommation d'énergie.

Une mise en production prévue pour 2012

La puce Poulson huit coeurs succédera à l'Itanium Tukwila quatre coeurs, qu'Intel a commencé à livrer en février 2010, après de nombreux mois de retard. Comme Poulson, Tukwila a servi de banc d'essai pour la plupart des fonctionnalités avancées qu'Intel intègre désormais dans ses processeurs Xeon haut de gamme (Nehalem-EX) livrés en mars dernier. Le fondeur a par exemple intégré la correction d'erreur et des facilités de maintenance (RAS). Gravé en 32 nm (contre 65 nm pour Tukwila), le processeur Poulson embarquerait jusqu'à 3,1 milliards de transistors (contre 2 milliards pour Tukwila). L'amélioration significative du procédé de fabrication permettra à Intel d'améliorer la performance du circuit et de réduire la consommation d'énergie.

Si la majeure partie de l'activité d'Intel provient des puces x86, la conception et la fabrication des Itanium IA64 (30 à 40 000 unités  par trimestre) répondent à des obligations contractuelles vis-à-vis de HP. Après le rachat de Compaq, Hewlett-Packard avait transféré une grande partie des ingénieurs travaillant sur le processeur Alpha chez Intel pour améliorer les performances décevantes de l'IA64 Merced qui devait remplacer la puce PA-Risc des HP 3000 et 9000 (Superdome). Aujourd'hui, le constructeur de Palo Alto utilise également les puces Itanium dans ses serveurs Integrity Non Stop, hérités de Compaq. « [Itanium] fait appel à un ensemble très restreint de consommateurs » souligne Dean McCarron. «Ces puces reposent sur un design qui commence à dater. Le cycle de rafraîchissement pour cette catégorie de composants est toutefois assez lent ».

Puces pour mainframe et supercalculateur

De son côté, IBM fera une présentation de son zEnterprise 196 avec des puces quatre coeurs qui fonctionnent à une cadence de 5,2 GHz. Présenté en juillet dernier, ce mainframe est commercialisé depuis septembre dernier. Ce CPU est aujourd'hui présenté dans le programme de l'ISSCC comme le microprocesseur avec la fréquence la plus élevée. Doté de 3 Mo de mémoire cache, il renferme 1,4 milliard de transistors.

Un troisième acteur surprenant est attendu sur cette conférence. L'ICT (Institute of Computing Technology), qui dépend de l'Académie des Sciences de Chine Populaire, présentera son processeur huit coeurs Godson-3B qui vient succéder au Godson-3. Basée sur une architecture Mips, cette nouvelle puce offrirait une puissance de calcul de 128 gigaflops/s tout en consommant moins de 40 watts. La puce a déjà été dévoilée lors de la conférence Hot Chips à l'Université de Stanford, en août dernier.

(...)

(25/01/2011 15:16:30)

Oracle orienterait Java principalement vers un usage entreprise

« Sun avait un objectif beaucoup plus ouvert pour Java, qui comprenait les applications middleware pour l'entreprise, mais aussi celles pour le PC, les appareils mobiles, et les systèmes embarqués. Or, Oracle est d'abord et avant tout en train d'axer le développement sur le middleware d'entreprise, parce que c'est là où la rentabilité se trouve, » peut-on lire en conclusion du rapport publié par les deux analystes. Ceux-ci mettent en garde sur le fait que, s'il devient un langage spécialisé serveur pour les clients d'Oracle et d'IBM, Java pourrait perdre une partie de son importance auprès de la communauté du développement à travers le monde.

Depuis l'annonce du rachat de Sun Microsystems, dont l'acquisition est effective depuis un an, le PDG d'Oracle Larry Ellison a souvent vanté les mérites du langage de programmation Java hérité de Sun, le qualifiant même d'un des apports les plus précieux de la transaction. Mais cette haute opinion de Java ne signifiait pas que les atouts du langage de programmation de Sun pourraient profiter à tous. A de nombreux points de vue, depuis le rachat, le positionnement d'Oracle vise à un usage plus restreint du langage de programmation. « Alors que l'essentiel de la spécification Java est Open Source, Oracle contrôle de manière stricte les variantes libres grâce à son droit intellectuel sur la marque déposée Java, » soutiennent les analystes.

Des risques de migration vers d'autres langages


Oracle jouit également d'une forte position auprès de la JCP (Java Community Process), l'organe indépendant chargé de superviser le développement du langage Java. Mais, au mois de décembre dernier, l'Apache Software Foundation (ASF) a décidé de ne plus participer au JCP pour protester contre certaines décisions d'octroi de licence prises par Oracle à propos de Java. Oracle a bien demandé à l'ASF de reconsidérer ce départ, mais en vain. « La perte du soutien de l'Apache Software Foundation mine la crédibilité d'Oracle en tant que partenaire auprès des geeks alpha Java auxquels on doit tant d'innovations indépendantes en faveur du langage » écrivent les deux analystes sur un blog. Ils ajoutent « au lieu de soutenir l'ASF, Oracle semble courtiser IBM, mettant tout son poids dans la version libre du langage de programmation Java OpenJDK soutenue par Big Blue. » Dans un autre rapport récent, John Rymer constate que WebSphere 7 d'IBM est le plus robuste serveur d'application Java, tout en soulignant qu'Oracle évite ainsi de s'atteler à l'une des faiblesses actuelles du langage de programmation, à savoir sa complexité. « Cette dernière pourrait conduire les développeurs à envisager plus facilement d'autres solutions comme Microsoft. NET ou Ruby on Rails pour un usage interne ou pour le cloud. Elle pourrait également stimuler le développement de frameworks externes, comme Spring, et détournerait les développeurs en les éloignant du travail essentiel à mener sur Java. »

Pour réaliser ce rapport, les analystes de Forrester ont interrogé 12 entreprises et organisations directement concernées par le développement du langage Java, dont Oracle, IBM, Red Hat, Microsoft et l'ASF. Ils ont aussi réalisé des sondages auprès d'utilisateurs Java soit via le blog du site de Forrester, soit lors d'événements comme JavaOne. Jusque-là, Oracle a refusé de réagir à ce rapport.

(...)

(25/01/2011 14:25:08)

Leo Apotheker révélera la stratégie de HP le 14 mars prochain

HP n'a pas fourni davantage de détails sur ce « March summit meeting » qui se tiendra à San Francisco, mais l'événement sera la première apparition importante, en dehors des résultats financiers du quatrième trimestre 2010, de l'ancien patron de SAP, venu remplacer Mark Hurd à la tête de HP. Ce dernier avait dû démissionner en août dernier, suite à un scandale l'impliquant.

Selon James Staten, analyste pour Forrester Research, « Mark Hurd a beaucoup contribué à réduire les coûts et à améliorer la situation financière de HP, mais il n'a pas imposé une stratégie capable de distinguer la société de ses grands rivaux comme IBM. Et c'est ce que l'entreprise attend maintenant de Leo Apotheker » explique-t-il. Compte tenu de l'expérience de l'ancien PDG de SAP, James Staten et d'autres analystes s'attendent à ce que celui-ci annonce une implication plus importante et des investissements dans les logiciels d'entreprise, via peut-être de grandes acquisitions. Il avait déjà évoqué ce point lors de la conférence sur les résultats. « Les solutions de management - Mercury et Opsware ainsi que le patrimoine logiciel de HP - doivent devenir une partie beaucoup plus intégrée et significative de l'activité » estime James Staten. Les analystes pensent aussi que la business intelligence (BI) pourrait devenir un domaine cible. Comme l'a déclaré récemment James Kobielus, analyste chez Forrester, à l'heure actuelle l'offre d'HP s'apparente à un « sandwich de BI sans rien à l'intérieur » et d'ajouter « ils ont le matériel, les services, mais sans avoir la brique logicielle. » Leo Apotheker pourrait aussi accroître l'investissement de HP dans le stockage et les réseaux, deux autres secteurs rentables et « de plus en plus stratégiques dans les datacenters d'entreprises, » selon un récent article paru dans le Wall Street Journal, citant des sources anonymes.

Des changements d'attribution en perspective


Selon le même quotidien financier, les orientations du PDG impliqueraient de nouvelles attributions pour les cadres dirigeants de HP, comme Ann Livermore, vice-présidente exécutive chargée de l'Enterprise Business et les vice-présidents David Donatelli et Tom Hogan. La société n'a pas voulu confirmer ces informations. Depuis le départ de Mark Hurd, l'entreprise a eu à faire face à de nombreuses turbulences. Et, dès sa nomination, Leo Apotheker a dû éviter une comparution devant le tribunal, suite à une plainte d'Oracle en rapport avec une affaire de propriété intellectuelle impliquant son ancien employeur, SAP. Aucune accusation n'a été retenue contre lui, mais les événements l'ont semblent-ils forcer à garder un profil bas tant que cette affaire était en cours. A l'époque, HP disait qu'il était occupé à parcourir le monde pour faire connaissance avec les clients et les employés de HP. « Heureusement, Larry Ellison a cessé de le poursuivre et de vouloir le faire citer à comparaître et HP peut tourner la page sur le passé de son nouveau patron, » a déclaré Dan Olds, analyste pour Gabriel Consulting.

Dans l'intervalle, HP prépare pour le 9 février un autre grand événement, également à San Francisco, où il sera question de la stratégie de l'entreprise pour son logiciel webOS acheté à Palm et qui sera intégré dans les smartphones, les imprimantes et d'autres produits.

 

Crédit Photo: D.R

(...)

(25/01/2011 14:22:10)

Le cloud au coeur de l'entreprise avec HP Hybrid Delivery

« Avec Hybrid Delivery, nous proposons une fondation permettant de s'appuyer sur l'existant pour aller vers le cloud, privé et public, tout en prenant soin de la gouvernance et des applications existantes », nous a expliqué Xavier Poisson Gouyou Beauchamps, directeur commercial cloud computing chez HP Europe lors d'une conférence de presse à l'Innovation Center de Genève. Il s'agit bien de combiner un système d'information traditionnel, reposant sur une infrastructure HP ou autre, et des services innovants exploitant une architecture cloud.

Après de deux années tendues, les entreprises, principalement les DAF (directeur administratif et financier), sont toujours à la recherche des leviers qui leur permettront de baisser les coûts de production et de mieux répondre aux demandes des utilisateurs. « A l'issue d'une période de crise, les entreprises veulent aller de l'avant, mais ne savent pas comment s'adapter rapidement aux évolutions du marché », souligne Ian Brooks, directeur marketing solutions et industries chez HP Europe. Les responsables chez HP ont bien compris que la révolution cloud n'est pas une remise en question radicale des ressources IT de l'entreprise, mais une évolution à long terme.

Adapter les usages au cloud

Pour accompagner progressivement la transformation des entreprises, HP mise sur sa solution Hybrid Delivery. Seul bémol, seules les solutions du constructeur de Palo Alto sont concernées. Pour opérer cette consolidation avec la création d'un cloud privé qui pilotera l'ensemble des ressources de l'entreprise, HP utilise ses stacks maison, à savoir Blade System Matrix, les logiciels Cloud Service Automation et Cloud Services, et enfin des API qui permettent de se connecter aux clouds public d'Amazon et d'Enterprise Service (sur le site de L'Isle-d'Abeau pour l'Europe) pour l'instant. Et pour gérer les environnements hétérogènes des clients, HP s'appuie sur des agents systèmes installés sur les machines et en cas de problèmes insolubles, des accords entre constructeurs permettent de régler les dysfonctionnements, nous a précisé Mark Wilkinson, responsable des pratiques cloud chez HP Software Services.

Avec sa solution Hybrid Delivery, le constructeur de Palo Alto ambitionne de créer de nouvelles sortes d'entreprise, mais le cloud n'est pas qu'une approche technologique. Il est également nécessaire de refondre les usages et les pratiques. « Les laboratoires de recherche de HP, le Cloud Computing Competence Center à Grenoble par exemple, peuvent accompagner les DSI dans la transformation de leur entreprise avec des ateliers  et un support dédié », précise Ian Brooks. « Toutes les grandes entreprises étudient aujourd'hui les bénéfices qu'elles pourraient tirer d'un cloud. Une vision globale du cloud est nécessaire, car ce n'est pas un simple bloc de plus dans les ressources IT ».  Avec son offre Hybrid Delivery, HP propose un cloud privé comme un service qui donne aux clients la possibilité de mixer des services internes, clouds privé et public.

Déployer un catalogue de services SAP

A titre d'exemple, HP a invité dans son centre de Genève Tobias Imhof, directeur des opérations et services SAP chez Resource AG, une filiale de Swisscom, qui a déployé la plate-forme Hybrid Delivery. Cette société qui a réalisé un chiffre d'affaires de 100 millions d'euros en 2010 propose des solutions SAP à destination des PME. Avec la solution Hybrid Delivery, Tobias Imhof a développé de nouveaux services reposant sur un catalogue à la demande disponible pour tous les clients. [[page]]L'objectif était d'éliminer les silos et de réduire les prix des contrats proposés. « Les clients ne paient que pour les ressources dont ils ont réellement besoin et le délai de déploiement des projets est passé de 6 semaines à 2/7 jours. L'adaptation des employés ne demande plus qu'une semaine au lieu de 6 à 12 semaines. » 

Resource AG propose tous les modules SAP à ses clients sur les environnements Windows, Solaris et Aix. En terme d'infrastructures, la compagnie a pour l'instant installé un Blade System Matrix, bientôt épaulé par un second pour assurer une redondance complète. Neuf clients (de 50 à 1000 utilisateurs) exploitent déjà les ressources reposant sur la solution de HP chez Resource AG. Si la solution concerne avant tout les opérateurs et les 3 000 plus grandes entreprises dans le monde, elle répond par ricochet aux besoins d'un grand nombre de PME et d'éditeurs qui devront passer par un prestataire de type SSII. 

Aujourd'hui, HP ne rencontre que peu de concurrents sur ce segment du marché, IBM et Cisco principalement, mais le passage au cloud est toujours freiné par les questions de sécurité, de disponibilité et de migration. Pour la sécurité, Xavier Poisson met en avant l'étanchéité des solutions proposées, tant au niveau applicatif que stockage avec la technologie 3Par. Pour la disponibilité, HP peut s'engager, après audit, sur des SLA très contraignants. Enfin la question de la migration ne se pose pas encore, mais il est vrai que tant que les machines virtuelles ne seront pas standardisées, il sera toujours difficile de passer de KVM à HyperV ou ESX.

Illustration principale : HP Blade System Matrix

(...)

(25/01/2011 10:15:01)

DCforData inaugure son datacenter mutualisé

La société DCforData a été créée à l'initiative de Nicolas Pitance. Un ancien directeur régional centre-est de l'opérateur Completel pendant dix ans, puis directeur d'une business unit au sein du Groupe Tyco dans la sécurité électronique. Il s'entoure d'une équipe également expérimentée en télécoms et sécurité sur la région Rhône-Alpes.

L'originalité du datacenter est d'être « carrier neutral », le seul dans ce cas sur le Grand Lyon, explique la société. Le client n'est pas obligé d'acheter des liens opérateurs par l'intermédiaire de DCforData. Il vient, il installe ses serveurs, mais garde le choix du ou des opérateurs qui lui conviennent et en change selon ses propres conceptions. DCforData entre en concurrence directe avec les opérateurs en place, surtout en région, qui proposent leurs capacités d'hébergement, mais à condition de prendre « aussi » leurs connexions. DCforData veut éviter à ses clients de se lier à un opérateur. Des clients entreprises, collectivités locales, mais aussi venus de l'IT : SSII, intégrateurs, SSLL, FAH, FAI....

Le datacenter est étudié pour être relié aux plus grands réseaux. Sur la métropole lyonnaise, il est connecté à RMT, le réseau métropolitain de télécommunications, installé par le Grand Lyon (la Communauté de communes). De l'autre côté, il est relié aux réseaux nationaux et internationaux, par les réseaux télécoms de la société d'autoroutes APRR.  Dans son projet de développement, la société prévoit d'ailleurs d'implanter ses futurs datacenter près des sorties d'autoroutes. (...)

(20/01/2011 15:47:56)

Des pirates exploitent le minicloud d'OVH

Octave Klaba, le PDG de l'hébergeur OVH a posté un message sur la page de maintenance de la société daté du 8 janvier dernier, qui indique « face à l'utilisation abusif de miniCloud par les hackeurs pour les attaques, les scans et les flood, nous avons déjà annoncé que nous allons devoir protéger les infrastructures en bloquant le trafic UDP sur le miniCloud. Les abus se sont accélérés depuis 2 jours. Nous sommes maintenant à une dizaine attaques en 48H sur les miniCloud. Nous avons décidé d'aller plus vite que prévu: le trafic UDP sur le mC vient d'être bloqué définitivement. »

Nous avons voulu interroger OVH pour connaître la nature des attaques (un lien avec l'affaire Wikileaks ou autre), l'impact sur les clients de l'offre minicloud (éventuel remboursement), mais la société nous a indiqué n'avoir rien à déclarer sur ces sujets. L'offre minicloud propose une mise à disposition de ressources informatiques dont le coût varie en fonction de la mémoire virtuelle souhaitée (de 0,01 euros HT/h pour 256 Mo à 0,08 euros HT/h pour 2048 Mo).

(...)

< Les 10 documents précédentsLes 10 documents suivants >