Flux RSS

Infrastructure serveur

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

2924 documents trouvés, affichage des résultats 121 à 130.

< Les 10 documents précédentsLes 10 documents suivants >


(15/12/2011 12:55:40)

Intel réorganise ses activités mobiles au sein du groupe MCG

Pour accélérer le développement de ses activités mobiles, Intel les réorganise en créant la division « Mobile and Communications Group » (MCG). Celle-ci se concentrera sur les téléphones, tablettes et autres terminaux nomades. « C'est une démarche stratégique destinée à apporter une différentiation claire autour des terminaux mobiles qui s'appuient sur Intel et pour améliorer le développement des composants et équipements mobiles », a brièvement indiqué Robert Manetta, porte-parole d'Intel dans un mail à nos confrères d'IDG News Service.

L'entité nouvellement créée rassemble des équipes d'Intel intervenant dans différents domaines (composants pour réseaux étendus, communications 'baseband', netbooks, tablettes et téléphones). MCG réunit ainsi quatre groupes : Mobile Communications, Netbook & Tablet, Mobile Wireless et Ultra Mobility. Sa constitution intervient à un moment où le fabricant californien de processeurs doit faire face à une rude compétition sur le terrain des terminaux mobiles. Acteur dominant dans le monde des PC, il doit affronter la domination du concepteur de puces ARM sur le marché de la mobilité. Les processeurs d'ARM sont fabriqués sous licence par des fondeurs tels que Texas Instruments, Samsung et Qualcomm, notamment. 

Hermann Eul et Mike Bell vont diriger MCG

Les activités mobiles d'Intel avaient déjà subi des changements significatifs. En mars, la société avait annoncé la démission d'Anand Chandrasekher, senior vice-président et directeur général du groupe Ultra Mobility. Celui-ci dirigeait un groupe chargé du développement des puces Atom à basse consommation utilisées pour des équipements portables tels que smartphones et tablettes.

Le groupe MCG est chargé de créer une « expérience utilisateur convaincante » par la fourniture de matériel, logiciels et éléments de connectivité optimisés, allant jusqu'à des solutions complètes procurant par exemple des designs de référence.

A sa tête ont été nommés deux responsables exécutifs d'Intel : Hermann Eul et Mike Bell. Le premier dirige le groupe Mobile Communications. Il a rejoint Intel après le rachat de la division sans fil d'Infineon Technologies. Quant à Mike Bell, il avait été recruté pour co-gérer (avec Dave Whalen) le groupe Ultra Mobility après le départ d'Anand Chandrasekher.

(...)

(15/12/2011 12:07:34)

Alcatel-Lucent dévoile son module 40G pour sa stratégie datacenter fabric

Alcatel-Lucent a présenté des modules 40G Ethernet pour son commutateur haut de gamme à destination des datacenters. Cette brique devrait l'aider dans sa stratégie datacenter fabric. Les modules 40G Ethernet seront intégrés dans le commutateur top-of-rack OmniSwitch 6900. Il existe deux types de cartes : une version comprenant trois ports 40G QSFP + et une configuration hybride 10G/40G, avec quatre ports 10G Ethernet SFP + et deux  ports 40G QSFP +. Ces interfaces doivent faciliter la construction ce qu'Alcatel-Lucent appelle les « pods » 40G, une petite configuration de fabric de commutation. Ces pods peuvent ensuite être connectés ensemble, via un commutateur coeur de réseau Omniswitch 10000, pour former un réseau maillé de pods ou un environnement de type cloud. Le constructeur parle d'une catégorie de services appelés « Carrier Cloud » (cloud d'opérateur), qui offrira un meilleur contrôle de la bande passante, une faible latence et la possibilité de fournir une qualité de service garantie.

Alcatel-Lucent a introduit ce concept de pod et de réseau mesh au printemps dernier quand il a dévoilé son switch 6900. A cette époque, l'équipementier avait montré 4 pods connectés à deux commutateurs de coeur de réseau OmniSwitch 10000 via des liaisons 40G Ethernet. Cette architecture pouvait supporter 14 400 ports serveurs avec une capacité de commutation de 169 Tbt/s au sein de 10 racks comprenant 48 unités chacune, avec une latence de 5 microsecondes.

Les modules 40G coûtent 1500 $ par port et seront disponibles au début 2012. A la fin du premier semestre 2012, Alcatel-Lucent devrait intégrer des logiciels pour les Omniswitch  comprenant les spécifications Data Center Bridging et Shortest Path Bridging de l'IEEE pour éviter les pertes de multipath Ethernet. Ils intégreront aussi Edge Virtual Bridging pour interagir entre les commutateurs virtuels et physiques. Enfin, le FCoE est attendu à cette période.

Une concurrence active et un réseau de partenariat

La vision d' « Application Fluent Networks », développée par Alcatel-Lucent  est en concurrence avec d'autres concept de virtualisation de la brique réseau et les architectures de fabric développés par Cisco, Brocade, HP, Dell, IBM, Extreme Networks, Enterasys, Avaya et d'autres.

Alcatel-Lucent a étendu son écosystème de partenaires pour sa stratégie Application Fluent Networks. Le constructeur a signé un partenariat avec Emulex, pour l'interopérabilité des serveurs 10G Ethernet et VMware pour l'interopérabilité entre les logiciels VMotion et le gestionnaire de la plateforme de gestion des machines virtuelles d'Alcatel-Lucent. Par ailleurs, un accord a été signé avec NetApp, pour la réalisation d'une plateforme de test combinant les baies de stockage et le réseau maillé de pods. Enfin, ces modules s'ajouteront à l'architecture intégrée DCNC (Datacenter Network Connect) élaborée par Alcatel-Lucent et HP, qui ont signé un partenariat le 1er décembre dernier. (...)

(15/12/2011 09:43:13)

Annuels Dimension Data : Une bonne croissance et des ambitions dans le cloud

L'intégrateur Dimension Data publie son chiffre d'affaires (CA) annuel, pour un exercice clos au 30 septembre dernier. Il s'élève à 5,8 milliards de dollars, en hausse de 14,8% (à taux de change constants). Le bénéfice d'exploitation est également en croissance, de 10,8%.

C'est l'activité intégration qui constitue l'essentiel du chiffre d'affaires, 78%, avec un CA de 4,5 milliards de dollars US. Elle est en croissance de 12,8%, son bénéfice en hausse de 7%. Les autres activités du groupe sont également en croissance, 6,% pour la branche solutions internet, 22,9% pour Plessey et  24,3% pour Express Data.

La société se félicite de ses chiffres, non affectés par la crise. Elle prévoit pour 2012 de renforcer ses activités dans le cloud, après la création d'une division ad hoc.

(...)

(14/12/2011 15:59:01)

L'UE classe l'affaire de maintenance des mainframes IBM

En juillet 2010, la Commission européenne avait diligenté deux enquêtes. La première était liée aux plaintes déposées par TurboHercules, T3 Technologies et Neon Entreprise, qui se sont vues refuser la fourniture d'émulateurs mainframe pour cause de violation de brevets. Certains de ces droits avaient fait l'objet d'un accord Open Source. En août dernier, les trois acteurs ont abandonné leur plainte après négociation avec Big Blue.

L'autre enquête portait sur le comportement discriminatoire présumé d'IBM vis-à-vis de ces concurrents fournissant des services d'entretien pour les mainframes. La Commission craignait en effet l'existence de pratiques anticoncurrentielles en vue de verrouiller le marché des services de maintenance (en évinçant ses concurrents potentiels du marché), notamment en restreignant ou en retardant l'accès aux pièces de rechange dont IBM est le seul fournisseur. L'exécutif bruxellois indique dans son communiqué que « IBM s'engage à mettre rapidement ses pièces de rechange et ses informations techniques à la disposition des agents de maintenance indépendants, à des conditions commercialement raisonnables et non discriminatoires. » Les engagements sont juridiquement contraignants souligne la Commission et en cas de non-respect de ses obligations, « elle pourrait lui infliger une amende pouvant atteindre 10 % de son chiffre d'affaires total, sans avoir à prouver l'existence d'une quelconque violation des règles de concurrence de l'UE. » (...)

(14/12/2011 15:58:38)

Selon Nvidia, les GPU pour consoles atteindraient « la dizaine de téraflops d'ici 2019 ».

Le concepteur de puces graphiques Nvidia pronostique que les consoles de jeu vont offrir des performances de l'ordre de la dizaine de téraflops d'ici la fin de la décennie. Ces consoles seront capables d'afficher en temps réel des vidéos avec la qualité que l'on retrouve aujourd'hui dans les fameuses scènes cinématiques d'introduction ou de transition dans les jeux actuels, selon le PDG de la compagnie Jen-Hsun Huang.

Les consoles de jeux de demain finiront par offrir le même niveau de performance que certains superordinateurs actuels, a-t-il poursuivi. Une PlayStation 3 a actuellement une capacité de traitement de quelques centaines de gigaflops seulement, selon M.Huang. Mais en 2019, les consoles de jeu se rapprocheront des performances du supercalculateur Red Storm, qui a été initialement conçu pour atteindre les 41,5 téraflops. Mais contrairement aux supercomputers qui exigent des mégawatts d'électricité pour fonctionner, les consoles de jeu à venir fonctionneront avec la même quantité d'énergie qu'aujourd'hui, a-t-il précisé.« Nous serons en mesure d'offrir ce niveau de capacité en 2019 dans une console de jeu consommant 100 watts », a ajouté le dirigeant.

Combiner GPU et CPU pour réduire la consommation électrique

Huang a fait ces déclarations ce mercredi à Beijing et ajouté que Nvidia s'efforce également d'améliorer les performances des GPU (unités de traitement graphique) équipant les supercalculateurs. Les puces graphiques de la société sont déjà installées dans certains des superordinateurs les plus rapides du monde pour aider à rendre les systèmes plus économes en énergie. En Chine, le Tianhe-1A, qui a brièvement occupé la première marche du podium Top 500 en 2010, emploie plus de 7 000 GPU Nvidia.

Combinées aux processeurs, les puces graphiques de Nvidia vont aider les superordinateurs à atteindre des performances plus élevées sans augmenter d'autant la consommation électrique, a indiqué M.Huang. Ce qui finira par permettre à un superordinateur d'atteindre une vitesse de traitement d'un exaflop (1 milliard de milliards d'opérations en virgule flottante par seconde) d'ici l'an 2019 en consommant seulement 20 mégawatts, a-t-il ajouté.

Actuellement en construction, le supercalculateur américain Titan va utiliser 18 000 GPU Nvidia. Le Titan aura une vitesse de pointe de 20 pétaflops, soit beaucoup plus que le superordinateur le plus rapide aujourd'hui, le K japonais, qui pointe à 8 pétaflops et consomme près de 10 mégawatts d'électricité.

(...)

(14/12/2011 10:34:55)

Intercloud à la recherche de partenaires

InterCloud entend occuper un créneau à part dans le monde du cloud, celui de la garantie de la performance de l'accès sécurisé aux applications critiques. Une solution destinée aux entreprises, avec un lien privé.

La société, qui entend se développer à 90% en indirect, a engagé un programme pour le recrutement de 60 partenaires d'ici fin 2012, une douzaine sont déjà partenaires. Essentiellement des éditeurs, comme Prologue, des intégrateurs et des consultants. Ils agissent, soit en marque blanche, soit comme apporteurs d'affaires. InterCloud leur propose un programme d'accompagnement, de formation et de leads.

(...)

(14/12/2011 10:22:50)

Selon une étude PAC, les infrastructures bénéficient du développement des clouds

L'étude Services d'Infrastructure qui vient d'être réalisée par le cabinet Pierre Audoin Consultants (PAC) détaille et analyse les principaux acteurs, segments, prestations et verticaux de ce marché en France. Elle revient notamment sur le fort impact du cloud sur ce marché. Malgré la croissance considérable du secteur du cloud computing, cet impact ne se traduit pas par un arrêt des investissements dans l'infrastructure interne. On pourrait presque dire « au contraire ». Selon PAC, le recours au cloud permet de recentrer l'infrastructure interne sur les éléments les plus porteurs de valeur pour l'entreprise, laissant le cloud s'occuper des banalités. L'industrialisation induite par le cloud amène des économies, donc des marges budgétaires qui sont rapidement absorbées par de nouveaux projets.

Côté fournisseurs de services d'infrastructures, la pression de la concurrence s'intensifie, les opérateurs télécoms devenant prestataires de cloud et donc de nouveaux concurrents, tout comme des acteurs pure player (Google, Amazon...). Le marché des services d'infrastructure reste importants avec une valeur de 12 milliards d'euros par an en France, soit environ la moitié du marché des services informatiques..
(...)

(13/12/2011 14:03:34)

Microsoft héberge Hadoop dans Azure

Microsoft a installé Apache Hadoop sur son cloud public Azure, ainsi qu'il l'avait annoncé en octobre dernier sur PASS Summit 2011. Dans le cadre de la mise à jour de son service de cloud, l'éditeur vient de mettre à disposition une pré-version de cette plateforme d'analyse de données Open Source, souvent utilisée pour traiter les big data. Selon lui, celle-ci permet de déployer des applications Hadoop en quelques heures. Par ailleurs, les développeurs, qui disposent depuis septembre du SDK Windows Azure 1.5, se voient maintenant proposer, au-delà des outils .Net et Visual Studio, un kit de développement pour le framework JavaScript Node.JS (hébergés sur Github).

Avec cette mise à jour du service, Microsoft indique aussi simplifier les montées en charge. D'une part, parce que la taille maximum de la base de données SQL Azure se trouve multipliée par trois (150 Go contre 50 Go auparavant) pour le même prix, soit 500 dollars. D'autre part, en raison de l'arrivée de SQL Azure Federation avec lequel on peut découper des bases SQL Server de différentes tailles pour les faire migrer vers Azure SQL. Microsoft souligne la réduction au Go qui résulte de ces modifications et s'élève à 67% pour la plus grande base, ramenant le prix du Go à 3,33 dollars (mise à jour : 354,25 € pour 150 Go, soit 2,36 € par Go). Pour chaque Go transféré depuis ou vers Azure, les clients américains et européens vont payer 0,12 dollar, contre 0,15 dollar précédemment.

Analyser dans Hadoop Hive à partir de PowerPivot

Pour les utilisateurs de la plateforme Azure, le processus d'enregistrement a été facilité. En définissant des quotas d'usage, le service peut être testé gratuitement pendant 90 jours. L'utilisation et le détail des dépenses se consultent directement sur le portail d'administration Windows Azure. Microsoft dit par ailleurs avoir simplifié sa facturation avec une date de facturation unique pour les clients ayant plusieurs abonnements et une vue synthétique des factures.

En octobre, Microsoft avait annoncé qu'il s'appuierait sur la distribution d'Hadoop proposée par Hortonworks, société issue des rangs de Yahoo. De nouvelles bibliothèques JavaScript aideront les développeurs à construire des tâches MapReduce, ainsi que des pilotes pour analyser les données dans la base Hadoop Hive, à partir du tableur Excel et de son add-on PowerPivot.

Microsoft n'a pas précisé quand le service Hadoop serait disponible dans sa version complète. Pour utiliser l'actuelle pré-version, il faut s'enregistrer. A partir de ces inscriptions, Microsoft va sélectionner un certain nombre d'utilisateurs pour tester la plateforme, sur la base de modèles d'usage qu'il prévoit. 

Eclipse, MongDB, Solr/Lucene et Memcached

Avec la bibliothèque Node.js, les développeurs pourront créer des applications web qui fonctionneront sur une version Azure de SQL Server. Pour assister l'utilisation du framework, Microsoft propose un SDK incluant une copie de Node.js, une version de Windows PowerShell et un émulateur Azure. Les développeurs peuvent construire et tester leurs applications sur leurs propres machines, puis les charger sur Azure afin de les y déployer.

Microsoft procure également des outils et de la documentation pour intégrer dans Azure d'autres environnements ou briques Open Source, parmi lesquelles l'IDE (integrated developer environment) Eclipse, la base de données MongoDB, le moteur de recherche Lucene/Solr et la technologie de cache en mémoire distribuée Memcached. Le support de toutes ces technologies va permettre aux développeurs de « bâtir des applications sur Windows Azure en utilisant les langages et frameworks qu'ils connaissent déjà », note dans un billet Gianugo Rabellino, directeur des communautés Open Source chez Microsoft.

(...)

(13/12/2011 13:20:32)

Embrane virtualise les services réseaux

Embrane a été fondée en 2009 par deux anciens dirigeants de Cisco Dante Malagrinò et Marco Di Benedetto (comme CTO). Ils avaient déjà participé à la création d'Andiamo, une société spécialisée dans le SAN acquise par Cisco, ainsi que de Nuova Systems, entrerprise qui a fourni la technologie Unified Computing System (UCS)  Chez Cisco, Dante Malagrinò a aidé  au développement de la stratégie Data Center 3.0, qui combiné virtualisation et matrice de commutation unifiée. De son côté, Marco Di Benedetto a travaillé sur l'élaboration de NX-OS, le système d'exploitation pour datacenter de Cisco.

Les autres collaborateurs d'Embrane, de cette jeune pousse,  sont issus de 3Com, HP, Juniper, Oracle, Alactel-Lucent, Array Networks et Palo Alto Networks. Embrane a levé 27 millions de dollars depuis sa création. Lightspeed Venture Partners, NEA et North Bridge Venture Partners sont les investisseurs présents au capital.

Le produit phare d'Embrane se nomme Heleos. Il s'agit d'une plateforme logicielle distribuée pour virtualiser les services des couches 4 à 7, comme l'équilibrage de charge, le pare-feu, le VPN, etc. Elle donne aux entreprises et aux fournisseurs de cloud la capacité de créer des offres clouds en mode IaaS (​​Infrastructure-as-a-service) en facilitant l'achat, l'allocation et la configuration de ces services.

Rapidité et flexibilité

Des instances de services réseaux peuvent être opérationnelles en moins de deux minutes, et la capacité peut être agrandie ou réduite en moins d'une minute, explique Embrane. La société ajoute que cela contraste par rapport à une architecture classique, avec des éléments matériels trop rigides, coûteux et souvent sous-dimensionnés, avec des paramétrages limités sur le multi-tenant et des complications sur la gestion des licences.

Heleos Elastic Services Manager et l'appliance virtuelle pour l'équilibrage de charge et le pare-feu / VPN sont dès à présent disponibles. Le logiciel fonctionne sur du matériel x86. Il ne prend pas en charge l'API OpenFlow pour la virtualisation du réseau. Embrane considère OpenFlow comme une API de la couche 2-3 de commutation/routage et non comme une API des couches 4-7, indique la start-up. Heleos supporte des licences « sans clé » dans laquelle les fournisseurs ne paient que pour ce qu'ils vendent ou ce qu'ils utilisent. Un abonnement annuel est aussi proposé

Les concurrents de l'offre d'Embrane sont les éditeurs d'appliances virtuelles  et / ou services sur du matériel x86. Vyatta, par exemple, dispose d'une offre concurrente sur le firewall / VPN, concède les dirigeants de la jeune start-up.
(...)

(12/12/2011 10:30:40)

HP et Microsoft étendent leur partenariat sur le cloud

HP et Microsoft ont annoncé avoir signé un accord de quatre ans pour fournir les applications de communication et de collaboration leader de Microsoft à travers des services mondiaux de cloud privé et public.

Un peu plus d'un an après avoir initié un accord dans le cloud privé, HP et Microsoft poursuivent leur collaboration en ciblant cette fois les applications de bureautique, de messagerie et les outils collaboratifs.

Selon cet accord, HP et Microsoft offriront des solutions de cloud privé et public destinées à aider les entreprises à accroître rapidement le nombre des utilisateurs. Les offres comprennent le cloud privé : les applications de productivité Microsoft Exchange Server 2010, SharePoint Server 2010 et Lync Server 2010 seront proposés en mode SaaS depuis la solution HP Entreprise Cloud. Le cloud public: HP proposera les offres de Micrsoft Office 365

ICTjournal.ch

(...)

< Les 10 documents précédentsLes 10 documents suivants >