Flux RSS
Infrastructure serveur
2924 documents trouvés, affichage des résultats 401 à 410.
< Les 10 documents précédents | Les 10 documents suivants > |
(22/06/2011 10:09:26)
Apple, Google et Facebook font de la Caroline du Nord le hub de leur datacenter
D'une valeur de 1 milliard de dollars, le datacenter mis sur pied par Apple occupe une place importante à Maiden en Caroline du Nord lorsqu'on regarde sur Google Earth. Du toit jusqu aux côtés, ce bâtiment d'une surface totale de 46 452 m²(500 000 square feet) est peint en blanc pour réfléchir la chaleur du soleil vers l'espace.
D'importants fournisseurs de cloud ont construit des installations monolithiques dans des zones dont les terres sont à faible coût et dont l'électricité est également peu coûteuse. Google a déjà investi 600 millions de dollars dans un datacenter situé à Lenoir, en Caroline du Nord, à moins d'une heure de route de Maiden. De son côté, Facebook a bâti une structure de 450 millions de dollars, d'une surface de 30 500 m2 (300 000 square feet) à Forest City. Lorsque Google a annoncé qu'il prévoyait de créer un datacenter en Caroline du Nord en 2007, Scott Millar, président de la Catawba County Economic Development Corp, espérait que cette décision attise la curiosité et suscite l'intérêt d'autres entreprises de haute technologie.
10 ans de réductions fiscales pour Apple
«Je pense que la dynamique qui a amené Google ici vaut également pour d'autres. », avait t-il déclaré. «Avoir la marque Apple dans notre communauté peut conduire beaucoup à penser que si Apple investit ici, ils pourront y investir aussi », avait t-il ajouté. Selon lui, il existe également d'autres avantages, en particulier pour les jeunes qui voient le logo d'Apple et pensent aussitôt qu'il existe un avenir pour eux dans la région.
Celle-ci est attrayante pour les datacenters en partie parce qu'elle dispose d'un bon réseau de distribution électrique. Elle est également connue pour la fabrication de meubles et de textiles.
Sans compter les allègements fiscaux. Apple a bénéficié pendant 10 ans de réductions de 50 à 80% sur ses taxes locales. L'effort de développement économique a également participé à l'accélération du permis de construire, et pour Apple, un inspecteur du bâtiment a été dépêché sur place pour que la construction avance plus vite.
2 500 à 3 000 emplois créés
Apple a également la possibilité de se développer. Son installation est située sur quelque 200 hectares, et occupe seulement une petite partie du site pour le moment, a précisé Scott Millar Le datacenter d'Apple est apparu sur Google Earth tout récemment, Le magazine Fortune a été le premier à l'avoir signalé. Le directeur des services municipaux Todd Herms a déclaré qu'il y avait beaucoup de grands bâtiments dans la région, y compris un parc industriel et 12 bâtiments de taille similaire.
Le datacenter d'Apple a permis de créer 50 emplois directs et 250 emplois indirects, Grâce aux travaux de construction du site, entre 2 500 à 3 000 emplois verront également le jour.
Illustration : le datacenter d'Apple situé à Maiden, en Caroline du Nord.
Crédit photo : D.R
(...)
Boston IT 2011 : TwinStrata relie les entreprises au cloud privé ou public
Avec TwinStrata, retour vers une pure start-up IT crée par des anciens de HP et en 2007 qui a lancé son produit mi 2010. « Nous sommes un point d'accès au cloud » résume simplement Nicos Vekiarides CEO de la petite société. Vingt-cinq personnes en tout, donc seize à Natick, au sud-ouest de Boston, travaille à connecter les ressources IT d'une entreprise à un pool de ressources de stockage et de services à la demande dans le cloud. TwinStrata sa fait fort de fédérer des offres clouds privées ou publiques comme Atmos, Mezeo, AWS, OpenStack ou encore Scality que nous avions rencontré en avril dernier à San Francisco. Nicos Vekiarides précise avoir travaillé avec Scality pour aider les clients qui utilisent le ring de Scality à intégrer son appliance.
Une appliance physique ou virtuelle dédoublée dans le cloud
TwinStrata se présente en effet sous la forme d'une appliance physique (sur base Dell) ou virtuelle reposant sur un système de cache pour accéder plus rapidement à des services et des données hébergées dans le cloud. S'appuyant sur les hyperviseurs Hyper-V, XenServer et VSphere - KVM n'est pas encore supporté - la start-up , permet de transférer les données d'un cloud à l'autre, quel que soit le fournisseur grâce au support d'interfaces standards. Une interface en ligne très facile à utiliser - la démo était bluffante de simplicité - permet de créer rapidement un espace de stockage sur les plates-formes partenaires. TwinStrata est capable de gérer jusqu'à 50 Po avec son Cloud Array et bien sûr on ne paie que ce qu'on utilise.
La sécurité des données est assurée par un chiffrement à la volée. Les usages sont multiples avec des services baptisés Cloud snapshot, Cloud acess disaster recovery... Et pour améliorer encore la disponibilité de la solution, il est également possible d'installer une seconde appliance dans le cloud. L'applaince de base est livrée avec 8 To, extensible à 16 avec un lien 10 Gigabits Ethernet ou 2 To en SSD également avec du 10 Gigabits. Assurée en mode bloc et fichiers, le back-up est compatible avec les solutions de Veeam, Symantec et CA. Le mode block access est supporté avec iSCSI mais le support de NFS est encore à l'étude.
Nicos Vekiarides CEO
Réduire les temps de restauration
Parmi les clients de TwinStrata, on peut citer Philips Color Kinetics qui désirait réduire les temps de restauration de sa base de données et éliminer la sauvegarde sur bande. Le premier syndicat de fonctionnaires américains, l'AFGE, a également choisi cette solution pour diminuer la fenêtre de restauration de ses machines virtuelles VMware en utilisant TwinStrata avec Veeam et Amazon S3.
Signalons pour conclure que TwinStrata est bien sûr un jeu de mot sur stratus, double nuages en français donc.
L'Open Group présente son architecture de sécurité pour le cloud
Dans le premier guide d'une série à paraître sur la sécurité dans le cloud, l'Open Group a exposé son point de vue sur la question. Intitulé « An architectural view of security for cloud », le document couvre de multiples domaines qui dépassent le seul univers du cloud, soulignent nos confrères américains de CSO. Le guide et l'architecture présentée doivent aider les responsables informatiques et les personnes en charge de la sécurité à avoir une vision plus globale des infrastructures du cloud, souvent complexes, et par conséquent, à prendre des décisions plus éclairées sur les risques et les opportunités.
L'intention du consortium est de produire « un ensemble de livres blancs traitant chacun dans le détail un élément de cette architecture, en s'appuyant sur des scénarios réels », explique Omkhar Arasaratnam, architecte en sécurité senior chez IBM et vice-président du Cloud Work Group Steering Committee au sein de l'Open Group. « Il y a beaucoup de nuances en matière de sécurité dans le cloud. Tout n'est pas noir ou blanc », rappelle-t-il. « Les responsables informatiques et de la sécurité ont besoin de comprendre l'impact de ces variations et quelle attitude globale adopter en matière de risques, quelles mesures prendre pour en atténuer les effets. »
Un guide qui complète le travail de la CSA
Selon Omkhar Arasaratnam, le travail de l'Open Group vient compléter celui de la Cloud Security Alliance (CSA) et ses travaux sur la sécurité. Celle-ci a publié un certain nombre de documents excellents concernant divers aspects de la sécurisation du cloud computing. « Nous sommes entièrement en accord avec nombre de leurs conclusions », a-t-il reconnu. « D'ailleurs, dans notre récent Livre blanc, nous citons même certaines de leurs dernières prérogatives quant à la manière de gérer les identités et les accès. »
Néanmoins, « les travaux de l'Open Group sont davantage axés sur des préoccupations architecturales en matière de sécurité, alors que le travail de la Cloud Security Alliance concerne principalement des questions techniques relatives aux contrôles au sein du cloud, comme le paramétrage des périphériques. Les deux approches sont utiles pour améliorer la sécurité », a précisé le vice-président.
L'Open Group suit la CSA sur la gestion des identités
La Cloud Security Alliance reconnaît de son côté que ces travaux sont complètent. « Le livre blanc publié par l'Open Group s'aligne sur les principes de gestion des identités préconisés par la CSA pour le cloud », explique Subra Kumaraswamy, vice-président du groupe de travail Identity & Access Management, Encryption & Key Management au sein de l'Alliance. « Notre groupe travaille sur des questions clefs de sécurité dans le cloud : l'identité, la gestion des autorisations et des accès », a-t-elle expliqué. « Le travail actuel de la CSA concerne tous les aspects du cycle de vie de l'identité et de l'accès, y compris le provisionnement, l'authentification, les autorisations, l'audit et la normalisation. Ces travaux sont complémentaires de ceux menés par l'Open Group. »
Lors de la conférence que l'Open Group organise à Austin, Texas, du 18 au 22 juillet prochains, les groupes de travail « Sécurité pour le Cloud » et Projet SOA discuteront des principales décisions à prendre en matière architecturale pour garantir la sécurité dans ces environnements. (...)
Supercalculateurs : le Japon reprend la tête du Top500
L'ordinateur japonais K, le plus ambitieux projet de calculateur au monde entrepris par Fujitsu, a pris la première place du Top500 des supercalculateurs, mettant ainsi fin au règne du Tianhe-1A chinois, tenant du titre depuis six mois seulement. Avec 8.16 petaflops (un petaflop = un million de milliards d'opérations en virgule flottante par seconde), le K japonais est plus puissant que l'ensemble des cinq systèmes suivant du palmarès. Toujours en cours de construction, le supercalculateur K évalué comporte pour l'instant 68.544 processeurs SPARC64 VIIIfx, nom de code Venus, intégrant chacun huit coeurs, pour un total de 548 352 noyaux, soit presque deux fois plus que n'importe quel autre système figurant dans le Top500. Quand il entrera en service en novembre 2012, le K comportera plus de 80 000 processeurs SPARC64 VIIIfx, selon son constructeur, Fujitsu.
62 supercalculateurs chinois dans le Top500
L'arrivée du Japon au sommet signifie aussi que le supercalculateur chinois Tianhe-1A, qui avait pris la place de numéro 1 en novembre de l'année dernière, se retrouve maintenant en deuxième position avec ses 2,57 petaflops. Mais le nombre de systèmes classés appartenant à la Chine ne cesse d'augmenter, passant de 42 à 62. La modification du classement au sommet signifie également que Jaguar, le supercalculateur construit pour le Département Américain de l'Énergie (DOE), descend en troisième position. Ce classement semestriel a été révélé aujourd'hui au cours de l'International Supercomputing Conference 2011 (ISC) qui se tient actuellement à Hambourg (Allemagne). Contrairement à d'autres superordinateurs récents, le supercalculateur K n'utilise pas de processeurs graphiques ou autres accélérateurs. Et s'il utilise beaucoup de puissance, il est aussi l'un des systèmes les plus économes en énergie, selon le site Top500.org.
Le supercalculateur est installé à l'Institut avancé de sciences informatiques (AICS) de Riken à Kobe (Japon). Quant il sera achevé, il pourra tourner à plus de 10 petaflops. C'est la première fois que le Japon dispose du supercalculateur le plus puissant du monde depuis que son Simulateur Terrestre (Earth Simulator) a été dépassé par le supercalculateur IBM BlueGene/L construit par le DOE et par le Columbia de la NASA en novembre 2004. Pour la première fois, les dix premiers systèmes du classement affichent une performance de plus de 1 pétaflop, même si ce sont les seuls systèmes de la liste à atteindre ce niveau. Les Etats-Unis en ont cinq dans le top 10, le Japon et la Chine en ont deux chacun, et la France en a un. Le Roadrunner du DOE, premier système à avoir franchi la limite du pétaflop en juin 2008, se retrouve désormais à la dixième place.
48% du classement a été modifié en six mois
Les performances des ordinateurs sont mesurées selon les indicateurs établis par Linpack, consistant en un ensemble de routines qui permettent de résoudre des équations linéaires. Dans le nouveau classement, le 500ème système de la liste était classé en 262ème position il y a six mois seulement. Ce qui signifie que près de 48 % de la liste a changé au cours de cette période. Selon le site Top500.org, le taux de renouvellement des systèmes a régulièrement augmenté dans les derniers classements. Alors que les performances des systèmes apparaissant dans le haut de la liste progressent à pas de géants, les avancées de ceux situés en bas de la liste sont plus modestes. Ainsi, en six mois, le premier du top 100 est passé de 75,76 à 88,92 téraflops (un téraflop = mille milliards d'opérations en virgule flottante par seconde). Enfin, avec 213 systèmes présents dans le Top 500, IBM domine, devant Hewlett-Packard qui compte 153 systèmes. Intel continue à fournir la majorité des processeurs des supercalculateurs de la liste, suivi par AMD et IBM. Les processeurs Westmere d'Intel sont maintenant utilisés par 178 systèmes, contre 56 systèmes, il y a 6 mois.
Le Top 500 est réalisé par Hans Meuer de l'Université de Mannheim (Allemagne), Erich Strohmaier et Horst Simon du NERSC/Lawrence Berkeley National Laboratory, et par Jack Dongarra de l'Université du Tennessee, Knoxville.
Illustration : le K2 de Fujitsu (crédit : DR)
(Cliquer ici pour agrandir l'image)
Le Forum du CXP livre sa vision du cloud
Le Forum CXP présente à chaque édition la vision du monde des progiciels par le cabinet d'analyse CXP. L'axe fort présenté par les analystes, de l'aveu même des orateurs, était le passage des progiciels sur site au mode cloud. Malgré tout, les exemples présentés en appui manquait singulièrement de cloud. Ce discours général a été renforcé par la présentation en session plénière de Andrès Hoyos-Gomez, directeur associé du cabinet Mc Kinsey : « cloud is in the air » [le nuage est dans l'air]. Si l'orateur reconnaissait le caractère de « buzz word » au terme « cloud » et aux concepts associés, certains vendeurs peu scrupuleux les associant à tout et n'importe quoi, il maintient trois caractéristiques fondamentales au « véritable cloud » : le redimensionnement « à la demande » (scalabilité), l'emploi d'une même implémentation par de multiples utilisateurs (multi-tenant), et un mode de facturation au service rendu (XaaS : Iaas, PaaS ou SaaS). Selon lui, il n'existe pas aujourd'hui d'acteur véritablement dominant dans le monde du cloud et les entreprises peuvent donc y retrouver les bénéfices d'une concurrence qui a pratiquement disparu partout ailleurs. A cela s'ajoutent les avantages classiques : flexibilité, réactivité et coûts étalés dans le temps au lieu d'un gros investissement initial.
Du pire au meilleur
Andrès Hoyos-Gomez a cependant reconnu que le Cloud présentait dans la pratique le pire comme le meilleur. Il a ainsi cité un groupe financier où les responsables centraux s'opposaient pour des raisons de sécurité à l'emploi du cloud par une filiale : après audit, le cloud choisi était plus sécurisé que le système de la maison-mère. A l'inverse, un industriel a totalement échoué dans son implémentation fraîche et joyeuse sur une vision enthousiaste du PDG : cela reste en effet un projet informatique à mener avec sérieux et méthode. Levi's et Pepsi ont, au niveau mondial, été des utilisateurs heureux du SaaS avec une baisse significative du taux de rupture de stock pour le premier et une optimisation logistique pour le second.
Globalement, selon Mc Kinsey, le logiciel en SaaS est globalement mature, avec une certaine variété par domaine : grande maturité pour la GRC ou la messagerie, absence de service convaincant dans la gestion de production, par exemples. Côté IaaS et PaaS, par contre, les PME peuvent trouver des offres dédiées à leurs cas assez matures mais pas les grandes organisations.
Relation clients : le cloud et le social laissent des traces
L'un des acteurs emblématiques du SaaS reste Salesforce, témoin de la maturité de la GRC en SaaS. Pierre-Olivier Sicamois, responsable de domaine régies de Lagardère Active, a présenté, pour sa part, son usage de Microsoft Dynamics CRM Online qui s'intègre totalement dans la messagerie Outlook pour une plus grande facilité d'utilisation. La SSII Stéria, quant à elle, a préféré Oracle CRM On Demand pour consolider en trois mois les innombrables GRC différentes issues de la croissance externe de l'entreprise.
Mais la relation client n'est pas impactée ces derniers temps uniquement par les produits mise en oeuvre pour la gérer.
En effet, les préoccupations des entreprises sont aussi, dans ce domaine, d'utiliser les médias sociaux (Facebook, Twitter...) pour accroître l'intensité des relations avec leurs clients et leurs prospects voire l'ensemble des membres de leur éco-systèmes. Il s'agit, selon le CXP, d'identifier les tendances lourdes du marché, les opinions sur l'entreprise (e-réputation), des nouveaux clients potentiels ou encore de tirer des profits complémentaires des conversations (ventes additionnelles, usage de la recommandation...).
Décisionnel : mobilité possible, cloud pas encore
Cette connaissance issue de la surveillance des médias sociaux reste encore à intégrer dans la GRC traditionnelle pour relier les dires de clients à leur fiche, avec des réserves légales autour de la question des données personnelles. L'intégration volontaire par les clients de leur profil Linkedin dans leur fiche a cependant été mise en oeuvre par la SSII Stéria. Mais globalement, le consensus s'est fait autour de la faible maturité des offres de « social CRM ».
Côté mobilité, par contre, les offres implémentées semblent montrer la parfaite maturité des produits du marché. L'éditeur de PGI vertical dédié aux métiers de l'automobile Datafirst a ainsi équipé ses forces de vente de mobiles et son progiciel open-source de GRC, SugarCRM a parfaitement répondu aux nécessités de ces terminaux en standard.
La situation est globalement la même dans le décisionnel. Le cloud est bien promis par les analystes voire les offreurs. Mais les cas concrets manquaient à l'appel. Par contre, la mobilité est parfaitement intégrée. L'éditeur Microstrategy a ainsi présenté l'implémentation dédiée aux dirigeants de la FNAC, capables de suivre en temps réel et de n'importe où les chiffres clés des magasins et de zoomer sur des détails pertinents, le tout à partir de leurs iPhones.
(...)
Cisco livre une solution de bout en bout pour le trading à haute vitesse
Baptisé High-Performance Trading Fabric, le nouveau système de Cisco pour le marché financier réunit des technologies de switching, de stockage et de calcul destinées à améliorer la performance réseau dans les centres de données. Le fabricant explique vouloir ainsi répondre aux besoins des sociétés financières pratiquant du trading à haute fréquence (HFT).
Ce type de courtage repose sur l'utilisation d'algorithmes qui analysent les marchés boursiers et émettent automatiquement des ordres à grande vitesse. Pour les sociétés employant cette méthode, la réduction des temps de latence est un enjeu considérable, car elle permet de profiter d'opportunités éphémères et d'agir plus vite que les algorithmes des concurrents.
La nouvelle solution de Cisco se base entre autres sur ses switchs Nexus 3064 et Nexus 5500, qui permettent d'absorber des pics de volumes (typiquement lors de l'ouverture des marchés financiers) et de réduire considérablement les temps de latence. L'équipementier souligne que la performance de sa solution a été confirmée par des tests effectués par la société Miercom.
Dell complète son offre VIS avec Netuitive
L'un des défis d'une infrastructure virtuelle est les interactions qui existent entre plusieurs éléments, ce qui rend la gestion du système global complexe. Les logiciels de Netuitive collectent des données sur les niveaux de performance et de l'utilisation de l'infrastructure. Ils dressent ainsi une image du bon fonctionnement du système et prévoit les éventuels problèmes qui pourraient survenir. Netuitive affirme que ses outils disposent de fonctionnalités de « self learning ».
Dell va intégrer ces solutions au sein de VIS (Virtual Integrated System) qui est un ensemble de logiciels et de produits conçus pour faciliter le provisioning et la gestion des systèmes physiques et virtuels, y compris les serveurs, la partie réseau et les équipements de stockage. Il vise à rivaliser avec des offres telles que les serveurs UCS (Unified Computing System) de Cisco et Blade System Matrix de Hewlett-Packard, qui vient d'être récemment rebaptisée CloudSystem Matrix.
Une orientation entreprises de taille moyenne
Dell souhaite que VIS s'adresse aux entreprises de taille moyenne. Le constructeur indique aussi qu'à la différence de ses concurrents son offre s'adapte à l'ensemble des fournisseurs. Les logiciels de Netuitive seront intégrés à la solution nommée VIS Director.
« Netuitive espère que cet accord montrera l'intérêt de ses outils d'analyses prédictives » explique Rachel Chalmers, analyste chez 451 Group dans une note de recherche et d'ajouter que « d'autres sociétés concurrentes comme ProactiveNet et Integrien, ont été acquis respectivement par BMC Software et VMware, laissant Netuitive comme le dernier pure player sur ce marché ».
Roy Illsley, analyste chez Ovum estime que ce partenariat est positif pour Dell. «Ovum considère l'analyse du comportement comme la prochaine innovation majeure de l'infrastructure et la gestion des clouds, et cet accord donne à Dell un avantage sur ses principaux concurrents, notamment sur le mid-market » déclare-t-il.
(...)
Le CIO de la Maison Blanche, Vivek Kundra, démissionne
C'est Jack Lew, directeur du management et du budget du gouvernement qui a annoncé le départ de Vivek Kundra. Cette démission est motivée par un changement de la vision IT de la Maison Blanche. Jack Lew, qui a salué le travail de Vivek Kundra, indique que ce dernier va intégrer l'université de Harvard et donnera des cours à la Kennedy School.
Vivek Kundra a été nommé CIO, quelques mois après la prise de fonction du président Barack Obama. Il a immédiatement proposé un agenda en militant pour l'adoption du cloud et la consommation des technologies à l'usage, pour rendre les données disponibles au public sur des sites, tels que data.gov. Il a été critique sur les grands contrats IT qui avançaient trop lentement et comportaient de risques d'échec.
Un plan trop ambitieux ?
Son départ six mois après la présentation d'un plan en 25 points suscite quand même quelques interrogations. Une des principales composantes de ce plan a été la consolidation des datacenters passant de 2100 à 800 en 2015. Ray Bjorklund, un vice-président senior de FedSources, un cabinet sur l'intelligence économique, explique que les actions de Vivek Kundra « ont été saluées, car cela faisait avancer les choses » et d'ajouter que « cela était positif pour le gouvernement. ». L'analyste se demande «si le DSI gouvernemental ne s'est pas essoufflé en menant son combat de changement ». Il rappelle qu'un bon tiers des résolutions dans son plan devaient être achevées au cours des six premiers mois, mais cela n'a pas été le cas.
En choisissant un nouveau DSI, Ray Bjorklund pense que Barack Obama choisira une personne capable de gérer des budgets IT à grande échelle (80 milliards de dollars de budget IT), tout en connaissant la complexité du gouvernement. Cela peut faire d'un CIO d'une agence fédérale, un candidat potentiel, conclut l'analyste.
TSMC pourrait battre Intel dans la course aux puces 3D
Selon une personne proche du dossier, qui a requis l'anonymat, TSMC pourrait commercialiser ses premières puces 3D, dans lesquelles la densité de chaque transistor est multipliée par 1 000, avant la fin de l'année 2011. Ce calendrier correspond précisément à celui prévu par Intel pour le lancement de ses puces Tri-Gate 3D. Le fondeur de Santa Clara compte bien faire en sorte que ses transistors, construits sur la nouvelle architecture 3D, soient les premiers à arriver sur le marché. Cette architecture est une des plus significatives avancées dans la technologie des processeurs depuis la création du transistor dans les années 1950.
Grâce à l'empilement de plusieurs couches de silicium, la puce 3D peut permettre des gains en performance d'environ un tiers, tout en consommant 50 % d'énergie en moins. Pour cette raison, les processeurs 3D sont particulièrement bien adaptés pour équiper les prochaines générations de dispositifs mobiles - tablettes et smartphones - des secteurs où Intel n'a pas encore réussi à établir une présence significative.
Un grand pas en avant pour le fondeur taiwainais
« C'est sans conteste une nouvelle opportunité commerciale pour TSMC, » a déclaré Shang Yi-Chiang, senior vice-président R&D chez TSMC, dans une interview. « Nous mettons aujourd'hui sur pied notre propre portefeuille de brevets, » a-t-il ajouté. Les puces 3D devraient aider les fabricants de composants à résoudre un certain nombre de problèmes, notamment réussir à augmenter les performances tout en réduisant la taille des processeurs. Au fur et à mesure que la densité des transistors augmente, la taille des fils qui servent à établir les connexions diminue, et ceux-ci sont plus proches les uns des autres. D'où une résistance accrue et une surchauffe. Ces problèmes entraînent des retards dans la transmission du signal, avec un effet limitatif sur la vitesse d'horloge des unités centrales de traitement. « Les processeurs 3D sont très séduisants en raison de leur plus grande densité, mais ils sont aussi plus difficiles à fabriquer. Si, sur cinq couches de silicium, l'une s'avère défectueuse, il faut tout recommencer, » a expliqué le vice-président de TSMC.
C'est la raison pour laquelle le fondeur taïwanais a aussi entrepris de développer des puces dites 2D, dans lesquelles le substrat organique est remplacé par du silicium pour augmenter la densité des transistors. Xilinx, un fabricant de puces pour les réseaux de communications, a conclu un contrat avec TSMC pour rendre son processeur Virtex-7 programmable (field programmable gate array - FPGA) en utilisant la technologie des puces 2D de TSMC qui permet d'empiler trois couches processeurs sur un substrat de silicium. Selon Xilinx, les premiers échantillons de sa puce Virtex-7 485T FPGA devraient être disponibles en août. Shang Yi-Chiang a déclaré que TSMC avait travaillé en étroite collaboration avec les distributeurs et les fournisseurs de logiciels d'automatisation pour contribuer au développement de la technologie des puces 3D.
Puces 3D, une découverte IBM
C'est en avril 2007 que des chercheurs d'IBM et du Rensselaer Polytechnic Institute (RPI) ont annoncé les premières versions de puces 3D, réalisées avec le soutien de l'agence Defense Advanced Research Project Agency (DARPA). Les puces 3D combinaient plusieurs couches de silicium selon un procédé appelé collage de plaques. La technique d'IBM consistait à empiler des couches de plaques actives sur une base de silicium. Cette technologie a permis de placer un processeur à la base de la pile, et d'intégrer des éléments mémoire et autres dans les couches supérieures, avec pour effet la réduction par mille de la longueur du connecteur. Plus la densité du transistor est élevée, plus la distance que les données ont à parcourir se réduit, d'où un temps de traitement beaucoup plus rapide. IBM a utilisé sa technologie « through-silicon vias » (TSV) pour connecter des piles de plusieurs composants processeurs. Les TSV permettent une meilleure dissipation de la chaleur à travers les piles, les systèmes sont mieux refroidis et les performances plus élevées.
Illustration principale : Shang-Yi Chiang, senior vice président en charge de la R&D chez TSMC
< Les 10 documents précédents | Les 10 documents suivants > |