Flux RSS
Infrastructure serveur
2924 documents trouvés, affichage des résultats 521 à 530.
< Les 10 documents précédents | Les 10 documents suivants > |
(15/04/2011 14:49:36)
Intel s'active dans les puces pour tablettes
Le fondeur a déclaré cette semaine, lors de l'IDF à Pékin, qu'il allait accélérer le développement de ses puces Atom pour les tablettes. Il s'agit d'une rupture dans les cycles traditionnellement longs des évolutions des processeurs de faible puissance. En 2013, la société lancera des puces Atom pour les tablettes qui, selon les dirigeants d'Intel, devraient les placer à égalité avec les processeurs ARM sur le plan des performances et de la consommation d'énergie. ARM Holdings, spécialisé dans les architectures de plusieurs modèles de processeur, domine presque tout le marché de la mobilité, des smartphones jusqu'aux ardoises numériques. La puce A5 utilisée dans les iPad 2 comprend un processeur ARM, tandis que la TouchPad de Hewlett-Packard fonctionne avec un processeur Snapdragon de Qualcomm, qui est également basé sur l'architecture ARM. Research In Motion et Motorola utilisent aussi le même savoir-faire.
Le marché des ardoises numériques est nouveau pour Intel et le fondeur a présenté à l'Intel Developer Forum à Beijing, la première puce Atom Z670 pour ce segment sous le nom de code Oak Trail. Intel a également montré l'agenda pour les puces Atom à venir, qui comprend un successeur Oak Trail baptisé Cloverview. Cette dernière sera gravée en 32 nanomètres. Plus d'informations sur cette puce seront dévoilées. Intel a indiqué que 35 produits seront équipés de la puce Oak Trail dans les prochains mois. Des sociétés telles que Fujitsu, Samsung et Lenovo font partie de l'aventure en fonctionnant sur différents systèmes d'exploitation, y compris Microsoft Windows 7, Android de Google et Meego d'Intel. Le fondeur a indiqué qu'en 2013, il arriverait à une gravure de 22 nm rivalisant ainsi avec les performances des processeurs ARM, notamment sur la consommation d'énergie.
Par ailleurs, Claudine Mangano, une porte-parole d'Intel a indiqué que les puces connues sous le nom de code Medfiels, pour les smartphones d'entrée de gamme seront disponibles aussi pour les tablettes. La puce Medfield devrait voir le jour plus tard cette année.
Des analystes créditent la stratégie d'Intel
Au final, Intel avance rapidement sur le marché des tablettes, dont les ventes impactent le segment des netbooks et des ordinateurs d'entrée de gamme, secteur clé pour le fondeur observe Nathan Brookwood, analyste chez Insight 64 en ajoutant « personne ne s'attendait au succès de l'iPad ».
Jack Gold, analyste chez J. Gold Associates, explique dans une note « qu'Intel va se différencier grâce à des fonctionnalités telles que la sécurité intégrée et des accélérateurs matériels ». Il ajoute que le fabricant de chipsets va travailler avec différents éditeurs d'OS pour les adapter aux puces Oak Trail. Pourtant l'analyste prévoit que le combat sera difficile contre ARM. En effet, celui-ci dispose d'une très grande expertise dans le développement des puces pour les smartphones et les tablettes. Le consultant conclut « Intel est dans une position de challenger et devra donc mieux se battre pour concurrencer ARM ».
Illustration: Doug Davis, vice-président d'Intel présente la puce Atom Z670 à l'IDF de Beijing
Crédit Photo: Michael Kan
(...)
Le développement d'applications partagé entre mobiles et cloud
Selon un rapport publié cette semaine par Forrester Research et intitulé «L'état du développement d'applications dans les entreprises et les PME, » le secteur mobile et le cloud computing sont en train de changer la façon dont les développeurs travaillent. L'étude constate également que des technologies de développement comme le HTML5 occupent de plus en plus de place, même si Java et .Net continuent de dominer. Les résultats proviennent de plusieurs enquêtes menées en Amérique du Nord et en Europe auprès de 933 décideurs et près de 2 500 développeurs. « En 2010, le développement mobile a explosé et son importance va encore augmenter en 2011, » indique le rapport rédigé par l'analyste Jeffrey Hammond avec l'aide des analystes Mike Gilpin et Adam Knoll.
« Mais, le type d'applications mobiles créées par les développeurs évolue aussi constamment. » Selon le rapport, les applications de contact direct avec le client (client-facing) sont les plus développées dans le domaine mobile : 51% des décideurs en ont commandé ou ont l'intention d'en faire développer. 39% des sociétés de développement mobilisent leurs salariés sur l'intranet et 29% préparent un logiciel de collaboration mobile. 51% des personnes interrogées se disent très intéressées par les applications mobiles ou les sites web mobiles optimisés pour toucher les clients.
La plupart des développeurs d'applications mobiles ciblent des dispositifs sous iOS comme l'iPhone et iPad (respectivement 56% et 36% environ). Android de Google est envisagé par 50% des développeurs d'applications mobiles. Les analystes constatent que le choix de développer en Symbian est mentionné par 8% des répondants. Dans l'ensemble, 80% des sociétés de développement utilisent leurs propres ressources en personnel, les développeurs maison se concentrant davantage sur le développement d'applications mobile.
Le cloud, un moyen de développer plus efficace
Dans le domaine du cloud, une société de développement sur huit a déployé des applications dans le cloud, selon le rapport de Forrester. Les constructeurs high-tech, fabricants de matériel informatique et entreprises d'électronique grand public notamment, sont les plus susceptibles de déployer des applications sur le cloud (24 %), mais avec 19%, les entreprises de services ne sont pas en reste. Aujourd'hui, les développeurs intégrés à des entreprises du secteur de la santé travaillent rarement sur le cloud : ce domaine concerne moins de 5% de leur travail de développement, de test ou de déploiement d'applications. En ce qui concerne la nature des clouds choisis par les développeurs, l'Elastic Compute Cloud d'Amazon est préféré par 27% des développeurs Eclipse, Google App Engine est préféré par 18% des développeurs Eclipse et Microsoft Windows Azure est choisi par 6 développeurs Visual Studio sur 10. Parmi les plates-formes cloud, .Net et Java sont les plus largement utilisés, 48% des entreprises et 21% des PME utilisant les deux plates-formes.
L'intérêt pour des technologies « web ouvert » s'avère aussi de plus en plus important. « L'HTML5, qui attire 60% des développeurs, est certainement l'une d'entre elles : soit les développeurs l'utilisent déjà, soit ils prévoient de le faire dans les deux années à venir. Mais le web ouvert ne se limite pas au HTML5. « Il existe d'autres méthodes, notamment des frameworks web légers basés sur la pile LAMP ou d'autres frameworks comme Ruby on Rails, utilisés aujourd'hui par une société de développement sur cinq, » comme l'indique Forrester. Le rapport constate également que les développeurs aiment travailler en Open Source. « C'est simple, 3 développeurs sur 4 estiment que l'Open Source leur permet de livrer des projets plus rapidement. 7 développeurs sur 10 mentionnent également une réduction du coût des logiciels quand ils travaillent avec du code libre.
« La transparence est également un facteur important pour 63% des pro du développement, tandis que 51% la considèrent comme un moyen de lutter contre le verrouillage des fournisseurs, » indique les analystes de Forrester. Parmi eux cependant, seuls 22% des développeurs ont contribué à ce type de projet. Pour ce qui est des dépenses affectées à un projet, Forrester a constaté que les entreprises informatiques devaient « se battre pour financer de nouvelles initiatives en matière de développement logiciels, mais elles ont fait des progrès : la part du budget consacré aux nouveaux projets a augmenté de manière constante, passant de 33% en 2007 à 50% en 2011. »
Red Hat devient progressivement fournisseur de cloud public
Red Hat évolue progressivement vers le modèle PaaS depuis le rachat de Makara. Mais, pendant que les ingénieurs travaillent sur un prochain service qui combine à la fois la technologie de Makara et celle de Red Hat, Roth Isaac signale que le service hébergé de Makara est toujours opérationnel, et que les clients actuels seront déplacés vers la nouvelle plate-forme. « Avec Makara, c'est la première fois que Red Hat dispose de son propre service de cloud public, » a t-il déclaré. « L'offre PaaS hébergée de Makara supporte Java Enterprise Edition, de même qu'il offre des fonctionnalités de niveau entreprise et la gestion du cycle de vie, » a ajouté Roth Isaac. Le service, lancé quelques mois avant que Makara soit rachetée par Red Hat, compte quelques milliers de développeurs inscrits. Même la NASA l'utilise pour la modélisation du climat. Une preview de la plate-forme, qui fonctionne sur Amazon EC2 ou Rackspace, est proposée en accès libre aux développeurs avec un support technique limité.
Basée à Redwood City, en Californie, Makara n'a pas déménagé ses locaux à la suite de l'acquisition, mais son équipe de 15 personnes a été multipliée par trois : des salariés ont été recrutés et certains ont été transférés de Red Hat. «Nous misons sur l'effort significatif entrepris auparavant par Red Hat, et auquel nous apportons notre contribution, » a ajouté l'ancien patron de Makara. « L'offre sur laquelle nous travaillons actuellement est vraiment prometteuse. » L'équipe de Red Hat Makara a intégré des morceaux de JBoss et Red Hat Enterprise Linux au service, lequel tire également parti du projet Deltacloud, qui permet aux développeurs d'utiliser le même code pour mettre en oeuvre des instances sur un cloud interne de type Amazon EC2 ou Rackspace, tout en protégeant les applications contre les modifications ou les incompatibilités des API.
Des annonces prévues au Red Hat Summit de Boston
Mais Red Hat réserve l'annonce d'une feuille de route plus détaillée de ses produits au Red Hat Summit qui doit se tenir à Boston du 3 au 6 mai prochain. Et, quand on demande à Isaac Roth si la technologie de Makara sera proposée en pack logiciel, en plus du service hébergé, celui-ci répond que « Red Hat aura un tas de trucs cool à annoncer au Sommet. » Lors du précédent sommet, l'éditeur s'était plusieurs fois vanté qu'il était le seul avec Microsoft à proposer des logiciels pour construire des réseaux cloud et pour effectuer le déplacement de la charge de travail d'un nuage à l'autre, y compris la virtualisation serveurs, un système d'exploitation, des outils d'orchestration et de gestion, du middleware, et des frameworks pour le développement d'applications.
La seule pièce manquante à Red Hat était un service de cloud public, ce qui n'est pas le cas de Microsoft avec Windows Azure. Quant à Google, il dispose de App Engine et VMware a récemment annoncé Cloud Foundry. Evidemment Red Hat et Microsoft sont en concurrence, mais selon l'ancien CEO de Makara, il y a de la place pour deux. « Azure cible les développeurs de Microsoft et Red Hat vise les développeurs qui s'appuient sur l'Open Source. Il n'y a pas tant de chevauchement entre les deux. Aussi, nous pourrons tout à fait coexister avec Azure, » a t-il déclaré.
En raison de l'augmentation des effectifs chez Makara, les bureaux « saturent un peu, » a dit Isaac Roth. Probablement que certaines équipes de Makara et de Red Hat vont être regroupées dans les mêmes bureaux, mais pour le moment le directeur du département « Pass Master » et son groupe travaillent presque comme une start-up au sein d'une entreprise mère, mais avec des ressources beaucoup plus importantes qu'auparavant. Et pour lui l'objectif est clair : Red Hat et ses dirigeants, dont le CTO Brian Stevens, lui ont demandé « d'avancer avec le PaaS, et d'en faire le meilleur service possible pour les développeurs open source. »
A Grenoble, HP valide les solutions HPC de ses clients
Pourquoi les clients ont besoin de HPC s'est interrogé Xavier Poisson Gouyou Beauchamps, directeur des ventes EMEA cloud et HPC et d'apporter plusieurs réponses, une augmentation de capacité de calcul pour réduire les coûts, travailler sur des sujets aussi variés que la simulation, la recherche, mais aussi le divertissement. Il a présenté le centre de benchmark HPC qui est basé dans les locaux de Grenoble. Ce centre permet aux différents clients de HP de pouvoir tester, analyser in situ, comparer les différentes configurations de calcul haute performance selon leur besoin propre.
Différents types de POC (proof of concept) peuvent être imaginés, comprenant plusieurs topologies de noeuds, d'évolutivité technique (capacité de stockage, type de processeurs, besoin de connectivité). Ces tests peuvent durer jusqu'à 6 mois. Ces installations fonctionnent en général à 80% 24h/24 et 7j/7. L'objectif avoué est de trouver le bon équilibre entre les besoins de calcul du client et l'infrastructure souhaité par le client. Xavier Poisson le rappelle « des projets de HPC ne sont pas des investissements sur 1 an, mais sur 3 à 5 ans ». Une raison de plus pour bien tester son projet.
Ces tests et ces comparatifs permettent aussi selon Xavier Poisson de répondre aux grands défis pour les prochaines années que sont le contrôle de la consommation énergétique et l'amélioration de la bande passante (temps réel, faible taux de latence, connexion réseau). Une première réponse est apportée par la modularité de ce type de salle via les containers POD proposés par HP. Mais le constructeur mise aussi sur ces partenaires et notamment Intel. Ce dernier est revenu sur les dernières annonces du fondeur concernant les puces Xeon E7 améliorant la performance tout en diminuant la consommation énergétique, via des technologies comme Turbo Boost ou l'Hyper Threading.
De l'accélération de particules au cinéma
L'intérêt pour le calcul haute performance comprend des activités variées. Sur le plan scientifique par exemple, le Cern est très friand de ce type d'infrastructures. Surtout avec la mise en place de son accélérateur de particules. Celui-ci, selon le Dr Pierre Vande Vyvre du Cern, doit répondre à plusieurs questions dont l'origine de la masse des particules, peut-on unifier toutes les forces présentes, etc. ? Lors d'une simulation d'une collision de particules, l'impact est photographié avec des temps de décompositions de l'ordre de la nanoseconde, les chercheurs ont été confrontés à deux problématiques sur les données récupérées.
La première concerne la définition de la qualité des informations. Pour ce faire, le Cern a imaginé avec HP une traitement à la volée basé sur des algorithmes spécifiques. En matière de matériel, le laboratoire genevois s'est équipé en HPC 7000, BL2x 220c G6 (Intel E5540 : 2,53 GHz 4 cores) et l'intégration de 40 agents pour capter les données. Cette configuration a été testée à Grenoble et ensuite installée au Cern. Le résultat est une diminution du nombre de rack en passant de 3 à 1, mais également une meilleure analyse des données avec un facteur 3 à 4 par rapport à l'architecture existante 2 ans auparavant. La seconde problématiques était la compression des donnés et leur archivage. A chaque collision, près de 1000 « clichés » peuvent être intéressantes et cela représente un volume de 1 à 50 Mo d'informations à numériser. L'infrastructure déployé par HP a permis une forte amélioration du stockage de ces donnés.
Le cinéma gourmand en HPC
En matière de cinéma, la société française Quinta, spécialiste de la postproduction a elle aussi fait appel au savoir-faire d'HP. La problématique est simple, les films demandent de plus en plus d'effets spéciaux et d'intégration d'images 3D. Ces procédés sont gourmands en ressources informatiques et les sociétés de post-production sont confrontées à des contraintes budgétaires importantes. Cela demande donc des efforts sur la climatisation et contrôle des coûts énergétiques, la gestion de la place au sol et l'optimisation de la supervision.
Pour répondre à ces exigences, Quinta a fait appel au centre de benchmark d'HP qui a travaillé sur une architecture de 225 serveurs SL2 x 170z avec double processeur Intel Xeon 5620 cadencé à 2,4 Ghz et 24 Go de mémoire DDR3. Le résultat parle de lui-même : les performances ont été multiplié par deux, le nombre de rack est passé de 6 à 3 gagnant ainsi de la place au sol. Les coûts ont été réduits de 30 à 40% sur le refroidissement de la salle et de 10% sur la facture d'électricité. La société précise que le temps d'intégration des 225 serveurs a été rapide (4 jours).
Le Watson d'IBM, pas aussi intelligent que l'on croit
« Même si Watson représente un exploit technique considérable, il serait incapable d'accomplir certaines choses, » a déclaré Patrick Henry Winston, professeur et ancien directeur du Laboratoire d'Intelligence Artificielle du Massachusetts Institut (MIT). « Par exemple, si l'on faisait une conférence sur Watson, Watson ne pourrait pas y assister. Il n'aurait rien à dire sur lui-même. Il ne pourrait pas participer aux discussions pour parler de la manière dont il fonctionne. »
Une dizaine d'autres chercheurs se sont exprimés sur le sujet aux côtés de Patrick Winston, lors du symposium Computation and the Transformation of Practically Everything au programme des évènements qui marquent le 150e anniversaire de l'école cette année. L'ancien directeur du laboratoire du MIT a fait remarquer que, depuis que des informaticiens, comme James Slagle, ont commencé à créer des programmes d'intelligence artificielle au début des années 1960, la communauté scientifique et le public pensaient que les ordinateurs pourraient disposer de capacités d'intelligence en quelques années. Mais cela ne s'est pas produit.
Un supercomputer reposant sur la puce Power7
« Apparemment, nous avons oublié ou négligé l'idée selon laquelle il est beaucoup plus difficile de produire des programmes qui ont du sens commun que de réaliser des programmes spécialisés dans des domaines techniques très pointus, » a-t-il déclaré. L'ordinateur Watson d'IBM peut par exemple répondre à des questions posées en langage naturel en temps quasi réel.
Contrairement aux super ordinateurs du passé, Watson est composé de 90 serveurs Power 750 Express IBM équipés de processeurs Power7 huit coeurs - quatre CPU dans chaque machine, soit un total de 32 puces par machine. Virtualisés, les serveurs reposent sur l'hyperviseur KVM et forme un cluster Linux offrant une capacité de traitement totale de 80 téraflops (un téraflops = mille milliards d'opérations à virgule flottante par seconde). « Toutefois, ce dont manque Watson, c'est la capacité de se relier à des expériences vécues pour élaborer des pensées cohérentes, le propre de la capacité cognitive de l'homme, » a expliqué Patrick Henry Winston.
Watson mis en échec par un sénateur américain
Ed Lazowska, qui dirige la Bill & Melinda Gates Chair in Computer Science & Engineering à l'Université de Washington, a également porté un coup à Watson. Selon lui, après la victoire que Watson a remporté au Jeopardy en février, la machine a été facilement défaite peu de temps après par le représentant démocrate Rush Holt, (DN.J.), au cours d'une démonstration technologique au Congrès. Physicien nucléaire et cinq fois vainqueur du « Jeopardy », il a battu l'ordinateur à 8 600 dollars contre 6 200 dollars. « Cela montre que nous avons besoin de plus de physiciens au Congrès. Rush Holt est le seul, » a plaisanté Ed Lazowska.
[[page]]
Alors que Watson ne peut pas mener une conversation intelligente, son apparition sur « Jeopardy » a marqué un changement radical dans l'Intelligence Artificielle, grâce aux processeurs multicoeurs, au calcul en cluster et à un logiciel de gestion informatique sophistiqué. La puissance de calcul utilisée par l'homme pour aller sur la lune à la fin des années 1960 est celle que l'on trouve aujourd'hui « dans des peluches animées. » Certes, « ce n'est pas le meilleur usage que l'on pourrait faire de cette puissance de calcul, » a déclaré Ed Lazowska. Il y a dix ans, il fallait un administrateur informatique pour gérer 250 serveurs. Aujourd'hui, la même personne peut gérer des milliers de serveurs. « Par exemple, la plateforme cloud computing Microsoft Azure ne nécessite que 12 personnes pour gérer 35 000 serveurs répartis sur deux continents, » a déclaré Ed Lazowska.
Une puissance de calcul en progression constante
Au cours des 40 dernières années, la puissance exponentielle de l'informatique a permis à l'Internet d'avoir un impact considérable sur nos vies, plus que toute autre chose, » a-t-il encore ajouté. « Au cours des années à venir, les consommateurs verront des réalisations utilisant cette puissance : des maisons intelligentes, des robots intelligents, des voitures intelligentes capables de prendre des décisions ou encore elles seront visibles dans le secteur de la santé, » a déclaré Ed Lazowska. « Aujourd'hui, il existe déjà des voitures qui peuvent se garer en parallèle et même rouler en ville ou à la campagne sans conducteur humain. »
La clé du développement pour les futurs ordinateurs repose sur le « renforcement du système, » un domaine dans lequel les ingénieurs de plusieurs disciplines peuvent travailler en équipes, plutôt que de développer une technologie spécifique dans un domaine d'expertise. « Lorsque les ingénieurs travaillant sur la reconnaissance vocale s'associent avec ceux travaillant sur la vision, ils sont en mesure de construire un système qui profite considérablement de leurs compétences, bien davantage que s'ils l'avaient développé seuls dans leur domaine, » a-t-il ajouté.
Des milliers de coeurs pour ressembler à l'homme
Selon Anant Agarwal, professeur au département Electrical Engineering and Computer Sciences du MIT, « ces ordinateurs doivent plus ressembler à l'homme, s'ils veulent tirer parti des progrès techniques. » Le souhait de son département est de construire un processeur avec des centaines, voire des milliers de coeurs, un objectif qui pourrait être atteint en quatre ans seulement selon lui. L'obstacle majeur à la construction de processeurs intégrant plusieurs milliers de coeurs, c'est l'évacuation de la chaleur dégagée par les composants. Une manière de contrôler la production de chaleur est de placer les coeurs le plus près possible de la mémoire DRAM, de manière à raccourcir la longueur des circuits et réduire le temps pendant lequel se fait l'accumulation de chaleur.
Une autre méthode consiste à équilibrer les performances des applications avec les possibilités matérielles. « Nous avons besoin de repenser les compilateurs, les systèmes d'exploitation, les architectures, et comment programmer les ordinateurs. En priorité, il faut créer des applications capables de faire connaître leurs objectifs au système d'exploitation, » a-t-il encore déclaré. « En quelque sort, nous avons besoin d'un mode de calcul conscient. » Ce serait comme si l'application pouvait «dire» au système d'exploitation ce dont elle a besoin en terme de puissance de traitement, puis atteindre un équilibre entre les besoins du système et ceux des autres applications fonctionnant ensemble.
Anant Agarwal fait remarquer que le coeur humain fournit au corps exactement ce dont il a besoin à tout moment et de manière optimale. « Si vous êtes bon coureur, la température de votre corps va fait baisser graduellement au fur et à mesure du parcours, » a-t-il expliqué. « Si vous êtes un ordinateur, plus vous courez, plus votre température va augmenter. Donc la question est : pourquoi les ordinateurs ne réagissent-ils pas davantage comme des humains ? »
Cloud Foundry, la solution PaaS de VMware
VMware a annoncé une offre de PaaS appelée Cloud Foundry. Cette dernière se veut ouverte. Les développeurs peuvent ainsi l'utiliser en combinaison avec n'importe quel environnement de cloud public ou privé, même ceux qui n'utilisent pas la technologie VMware. Ils peuvent également choisir parmi une variété d'infrastructures applicatives. Jusqu'à présent, les fournisseurs de PaaS ont eu tendance à lier les utilisateurs à leur plate-forme, ainsi qu'à un service de cloud spécifique. « Mais cela évolue, car les gens veulent la portabilité des applications », a déclaré George Hamilton, analyste au Yankee Group et d'ajouter « les entreprises veulent de la flexibilité pour développer des applications et être capable de les porter dans des environnements différents. »
Comme la solution Cloud Foundry est Open Source, elle pourrait simplifier la portabilité des applications depuis un environnement interne vers un cloud public, par exemple, ou entre les différents clouds public. « Vous pouvez maintenant évaluer un prestataire de cloud non plus uniquement sur leur infrastructure, mais sur la qualité de service » précise l'analyste.
Un modèle Open Source
L'éditeur propose plusieurs manières d'accéder à Cloud Foundry. Le VMware Operated Developer Service est disponible actuellement en version bêta. Il est destiné aux développeurs désirant tester les services ainsi que l'intégration d'opérationnelle. L'éditeur prévoit également de sortir, ce trimestre, Cloud Foundry Micro-Cloud, une instance téléchargeable de Cloud Foundry contenue dans une machine virtuelle. Les développeurs peuvent ainsi utiliser Micro Cloud sur leurs postes de travail pour développer et tester leurs applications. Enfin, une version commerciale de Cloud Foundry pour les entreprises devrait voir aussi le jour. Elle offrira des fonctionnalités PaaS au sein des clouds privés.
VMware a déjà publié le code de Cloud Foundry, un projet Open Source distribué sous la licence Apache 2. Cela signifie que les développeurs peuvent modifier le logiciel pour leurs propres besoins. En plus du support de Spring for Java, Ruby on Rails et Sinatra pour Ruby, Cloud Foundry prend également en charge d'autres cadres de JVM, y compris Grails. VMware a déclaré qu'il envisage d'intégrer d'autres frameworks de programmation. Pour les bases de données, Cloud Foundry s'appuie initialement sur MongoDB, MySQL et Redis. La solution sera prochainement compatible avec les services vFabric de VMware.
En quête de crédibilité
« L'ouverture de Cloud Foundry peut être intéressante pour certains utilisateurs, mais elle ne s'installe pas comme un gros concurrent face à d'autres fournisseurs PaaS, tels que Microsoft » a déclaré George Hamilton. Il rappelle que la plate-forme Azure prend en charge l'environnement de programmation. NET. « Les services PaaS comme Azure demande un peu plus aux développeurs, mais ce qu'ils perdent en souplesse, ils le gagnent dans l'administration du système » confie l'analyste. Certains développeurs peuvent faire ce choix.
Si les développeurs de Spring (de Spring Source détenu par VMware) devraient adopter sans problème Cloud Foundry, VMware veut relever le défi de construire une relation avec d'autres programmeurs. Michael Cote, analyste chez RedMonk indique « quand il s'agit de Ruby, JavaScript et d'autres plates-formes, VMware doit être un interlocuteur crédible » et d'ajouter « cela passe par se mettre au niveau de la communauté des développeurs ». Par exemple, Amazon Web Services, qui est relativement ouverte, et Google ont de bonnes relations avec les programmeurs. Mais Microsoft a dû travailler très dur pour convaincre qu'il n'était pas « l'empire du mal » et qu'il ne cherchait pas à verrouiller les développeurs dans Azure » analyse le consultant.
Parce que VMware n'a pas exposé les détails sur les prix de sa solution, Michael Cote est un peu sceptique de savoir si Cloud Foundry sera véritablement ouvert. Les fournisseurs de PaaS ont généralement l'habitude de verrouiller les utilisateurs sur certains composants permettant ainsi au prestataire de gagner de l'argent à chaque installation. Il semble que VMware souhaite construire un environnement très large avec l'espoir de tirer des bénéfices sur certaines utilisations. Le consultant conclut en espérant « que l'éditeur le fera de manière intelligente et qu'il n'essayera pas de monétiser sa solution à chaque instance Cloud Foundry ». (...)
OpenStack, la start-up Piston Cloud Computing relance le projet
Pendant deux ans, de juin 2008 à mai 2010, Joshua McKenty (en photo) a conduit pour la NASA le développement de Nebula, une plateforme de cloud IaaS devenue l'an dernier un projet Open Source « auquel contribuent maintenant des dizaines d'organisations et des centaines de personnes », rappelle l'intéressé sur son profil LinkedIn. Il a fondé en janvier dernier la société Piston Cloud Computing dont l'équipe est composée des principaux architectes du projet OpenStack.
Installée à San Francisco, la start-up développe des logiciels et services au-dessus d'OpenStack pour des clients qui recherchent des applications capables de gérer d'énormes volumes de données (« big data ») dans des environnements hautement régulés. Joshua McKenty, PDG de Piston, précise qu'il avait rejoint l'Ames Research Center de la NASA (centre de recherche situé dans la Silicon Valley) pour bâtir des capacités de plateforme « as a service » afin d'aider à consolider les nombreux sites web de l'agence spatiale américain sur un seul type d'infrastructure. Mais après avoir planifié le projet sur deux mois, Joshua McKenty arriva à la conclusion qu'il lui fallait une infrastructure sous-jacente plus « élastique » pour que cela fonctionne. C'est alors qu'il a proposé ce qui devint Nebula, une IaaS procurant des capacités d'infrastructure de cloud comparables à celles d'Amazon EC2.
Par la suite, un partenariat s'est conclu entre la NASA et Rackspace, ce qui a débouché sur la sortie du logiciel cloud OpenStack. Ce dernier a recueilli le soutien de fournisseurs tels que Cisco, Citrix et Dell, mais selon Joshua McKenty, Nebula n'est pas soutenu autant qu'il l'aurait souhaité au sein même de la NASA. « J'ai reçu une distinction honorifique et, la même semaine, on m'a demandé de ne plus revenir », explique-t-il. Selon lui, ce genre de transition est typique de ce qui peut se faire dans l'administration.
Une version bêta hybride matériel/logiciel
Dans le cadre de la start-up Piston, Joshua McKenty et trois collègues prévoient de livrer au quatrième trimestre 2011 une version bêta d'un service hybride matériel/logiciel. La technologie développée inclura un logiciel pour doper les capacités d'OpenStack, une partie matérielle qui se trouvera dans le datacenter du client et une autre partie matérielle gérée à distance pour le client par Piston.
Les premiers secteurs d'activités ciblés sont les services financiers et l'assurance. La génétique et les sciences de la vie pourront ensuite constituer d'autres domaines d'application possibles. Piston a noué des partenariats avec des fournisseurs d'applications pour transformer leurs logiciels en services hébergés, mais il pourrait tout aussi bien vendre directement aux entreprises.
Piston a levé des fonds et en cherche d'autres, indique Joshua McKenty en ajoutant que la société a déjà bâti des prototypes et signé avec quelques clients pilotes. Il aimerait compléter son équipe avec des experts de Linux et de la virtualisation. Le site web de la société indique rechercher des ingénieurs ayant une expérience intensive de Linux et de solides connaissances de la virtualisation avec les hyperviseurs Xen ou KVM.
Illustration : Joshua McKenty, fondateur et PDG de la start-up Piston Inc (crédit : D.R.)
(...)
En France, Dell confie à Quadria l'exclusivité de ses offres cloud pour PME
Quadria est un intégrateur et revendeur multi-régional (15 agences en France) spécialiste des réseaux et des infrastructures. Il vient de signer avec Dell un accord d'exclusivité. Quadria devient le revendeur exclusif, pour le territoire français, des offres cloud de Dell. Exclusivité territoriale et surtout commerciale : elle concerne uniquement le segment des PME, les entreprises de moins de 500 salariés. Exclusivité réciproque, puisque Quadria s'engage à ne commander que des serveurs Dell.
Les deux sociétés se connaissent depuis deux ans, Quadria étant devenu l'un des revendeurs certifiés « Enterprise Architecture » de Dell. Une collaboration qui a pris une autre tournure avec l'arrivée du cloud. « Depuis le début 2010, nous réfléchissions au cloud », nous explique Gilles Perrot, directeur général délégué de Quadria. « Au départ, nous envisagions d'avoir nos propre datacenters. Mais les normes sont draconiennes, ceux qui se sont lancés il y a quelques années n'ont pas les normes de sécurité et les certifications de niveau tier 3 et tier 4 aujourd'hui nécessaires. Nous avons finalement opté pour être hébergé par Télécity et Interxion. Et nous avons choisi des serveurs Dell, après avoir discuté avec plusieurs constructeurs».
« Au départ, les discussions étaient basées sur une approche technique », nous glisse Ludovic Levé, directeur solutions France, division PME-PMI de Dell EMEA. «Très vite, nous avons pensé aller plus loin, sur ce segment du cloud pour le SMB, où il y a encore plus de bruit que de business ! Nous avons abouti rapidement à une démarche originale : confier à Quadria l'exclusivité de nos offres SMB cloud pour la France. Ils ont une stratégie datacenter forte qui nous intéresse».
[[page]]
Les offres SMB cloud de Dell sont basées sur l'IaaS et le Paas. On trouve de l'IaaS classique, des plateformes, de la réplication, du développement. Dell travaille également sur de futures offres packagées. L'offre cloud de Quadria et Dell comportera cette offre catalogue et des prestations sur mesure suivant les besoins des clients.
Cet accord prend effet le 2 mai prochain sur toute la France. Le plan de lancement est en cours d'élaboration. Cette semaine, du 13 au 15 avril les commerciaux de Quadria seront formés. Trois d'entre eux sont nouvellement engagés pour cette offre. Au total, Quadria compte 30 commerciaux, six seront en plus chargés, par grande région, de vendre et de supporter uniquement ces offres cloud SMB de Dell.
Quadria réalisé 100 millions d'euros (ME) de chiffre d'affaires (CA) l'an passé. Le cloud devrait représenter 6 ME en 2011, 8,5 en 2012 et 9,5en 2013 selon le plan d'affaires tracé. L'investissement se monte à 1,7 ME, représentant les serveurs, les logiciels et la sécurité.
Ce partenariat est tout aussi important pour Dell. « C'est une initiative de la filiale française de Dell, souligne Ludovic Levé. « On veut tous les deux, Quadria et Dell, aller vite, c'est la raison même de ce partenariat, qui va booster nos deux projets ».
(*) https://www.distributique.com/actualites/lire-dell-investit-massivement-dans-les-datacenters-16296.html
< Les 10 documents précédents | Les 10 documents suivants > |