Flux RSS
Infrastructure serveur
2924 documents trouvés, affichage des résultats 111 à 120.
< Les 10 documents précédents | Les 10 documents suivants > |
(22/12/2011 10:22:29)
La régie publicitaire de Ouest-France passe au cloud avec SFR
Précom est la régie publicitaire et le gestionnaire de services web pour sa maison-mère, le groupe de presse Sipa / Ouest-France. Ce groupe souhaitait optimiser ses infrastructures web tout en bénéficiant d'un meilleur niveau de service et de pilotage.
Après consultation du marché, le groupe a choisi l'offre de IaaS (Infrastructure as a Service) de SFR Business Team pour une durée de trois ans. Ce IaaS hébergera les sites web de consultation et d'information, les services e-commerce, les sites d'échanges de données et la plate-forme de développement destinée aux informaticiens internes du groupe Ouest-France.
Maîtrise du budget et évolutivité
Précom a opté pour une trentaine de serveurs virtuels redondés dans le cadre d'une architecture sécurisée afin de valider le PRA. Il bénéficie d'un extranet lui permettant de suivre en temps réel les performances de l'infrastructure externalisée (réseau, serveurs, applications). Le choix du IaaS implique que le fournisseur assure la maîtrise d'oeuvre globale, la supervision technique et applicative, la sécurité et le pilotage du projet.
Parmi les critères de choix, Précom a apprécié, outre la maîtrise du budget, un accompagnement opérationnel constant dès la consultation et la mise à disposition d'un conseiller technique pour suivre sa plate-forme et conseiller le groupe dans son évolution.
Le montant du contrat et le coût de la migration n'ont pas été dévoilés.
OVH lance sa première offre de cloud public
Le spécialiste de l'hébergement avait en 2010 proposé des offres de cloud, baptisées miniCloud et devCloud. Une petite mise en jambe avec l'arrivée de la première brique de sa plateforme Public Cloud. L'offre est baptisée Instances et propose aux développeurs un nombre illimité de machines virtuelles. Pour OVH, « les développeurs peuvent créer à l'infini des environnements spécifiques à chacun de leurs projets ». Concrètement, l'hébergeur propose plusieurs types d'instance de S à XL comprenant des ressources processeurs, mémoires et stockage. Plusieurs OS en 64 bits sont disponibles Debian 5, Ubuntu 10.04, CentOS 5 bits et Windows 2008 SP2. Le management des instances peut se faire via des scripts à l'aide d'API proposée par OVH ou directement depuis l'interface client.
Une offre évolutive
Sur le plan de la tarification, « le client paie à l'heure uniquement les ressources qu'il utilise. Le trafic, la quantité de requêtes et le nombre d'entrées/sorties ne sont jamais pris en compte » précise l'hébergeur. Il faut compter 0,01€ HT pour le package Small et 0,48€ HT pour la formule XL. OVH prévoit dans le futur d'étoffer sa plateforme Public Cloud avec des briques stockages, de bases de données, de répartiteurs de charge et de solutions e-mail. L'entreprise française entend concurrencer de grands acteurs comme Amazon EC2 ou Microsoft Azure.
CA Technologies intègre le paiement à l'usage pour son offre ARCserve
CA Technologies a lancé, au mois de septembre dernier, la version 16 de sa solution de sauvegarde, ARCserve. Au-delà de cette évolution technique, la version s'ouvre au cloud computing. Parallèlement, les ventes indirectes sont concernées avec un programme spécifique, ARCserve MSP 2.0. Il permet de vendre de l'abonnement mensuel. La facturation se fait par téracoctets.
« C'est un changement majeur dans le fonctionnement du marché, souligne Valérie Hénin directrice des ventes indirectes de CA, les clients se tournent vers l'accès au service sur un mode de consommation et non plus d'investissement. Nos partenaires seront accompagnés de manière à leur fournir la licence et la façon de payer à la consommation et non plus à l'achat ».
Aucun engagement de durée
Ce programme s'adresse aussi bien aux partenaires MSP actuels de CA qu'à de futurs partenaires intéressés par l'offre et la formule. Ils doivent s'inscrire et passer une accréditation technique, ils ont alors accès à la licence spécifique et au mode de facturation mensuel. Aucun engagement de durée ne leur est imposé. 15 MSP sont dans ce programme en France, les grossistes de CA sont également impliqués sur ce programme.
Autre intérêt, ARCserve est désormais très ouvert et s'intègre par exemple avec les outils d'administration de Nimsoft, filiale de CA, et de Kaseya. Il est interopérable avec les outils de supervision de N-able Technologies, LabTech et Level Platforms.
Bilan cloud 2011 : Des offres éclectiques sur fonds d'incertitudes
Le cloud computing a continué d'animer le marché IT pendant l'année 2011. Beaucoup d'entreprises se sont intéressées à ce phénomène pour des raisons de flexibilité, d'agilité et aussi en raison d'une offre plus étoffée de la part des acteurs de l'IT. Ces derniers construisent brique par brique leurs solutions soit en rachetant des compétences, soit en nouant des partenariats. Sur le premier point, on peut citer l'acquisition récente de SuccesFactor par SAP, RightNow par Oracle ou Autonomy par HP. L'objectif de ces opérations est d'élargir son portefeuille est d'aller vers des solutions en mode SaaS.
L'autre orientation est de nouer des partenariats comme IBM et SAP pour offrir du CRM en mode SaaS. Les opérateurs de télécom ne sont pas en reste avec des accords SFR avec HP, mais aussi Orange qui s'allie avec SITA pour mailler le cloud sur le plan international. Les briques technologiques évoluent aussi notamment sur la partie réseau. Juniper, Enterasys, Cisco, Alcatel-Lucent, HP travaillent sur la virtualisation de la couche réseau des datacenters en unifiant la matrice de commutation. L'Open Source séduit de plus en plus les acteurs du cloud comme Dell, avec notamment Open Stack.
Du cloud à toutes les sauces !
Si en 2010, le cloud se déclinait en trois axes, le SaaS, PaaS et le IaaS, 2011 a vu une explosion d'offres « as a service ». De la base de données pour Heroku d'Oracle en passant par les offres de Device as a service ou les instances de HPC chez Amazon ou IBM, rien n'échappe au cloud. Les systèmes d'exploitation tels qu'Ubuntu ou les serveurs d'applications comme Weblogic 12c succombent aussi aux charmes du cloud.
Le stockage et la bureautique en ligne ont souvent été mis en avant cette année. Sur le stockage, le développement des offres à destination des particuliers et des professionnels comme icloud d'Apple, Dropbox, Gdrive de Google, SugarSync, etc démocratisent cet usage, avec quelques inquiétudes sur l'aspect sécurité. Sur les outils de communication et de collaboration, 2011 a vu la bataille se renforcer entre Microsoft et Google. Le premier a lancé Office 365 à destination des PME, pendant que les Google Apps commencent à séduire les grands comptes.
[[page]]
Si le cloud privé représente la majorité des contrats actuels, les acteurs de l'IT ont les yeux rivés sur le cloud hybride et public. HP a ainsi dévoilé son cloud public en version beta, Dell, IBM, Oracle et Red Hat se sont aussi lancés. La France veut tenter l'aventure du cloud hexagonal avec le projet Andromède qui dispose d'une enveloppe de 285 millions d'euros.
Sécurité et localisation des données stigmatisées
Si certains clients de services clouds avertissent sur leurs coûts cachés, la question de la sécurité et de la fiabilité reste au coeur des préoccupations des DSI. Quelques pannes sur les services clouds d'Amazon ou de Microsoft ont démontré la fragilité du système. Par ailleurs, des spécialistes de la sécurité ont montré l'existence de failles, alors que les développeurs perçoivent comme important le risque d'avoir des bases de données SQL dans le cloud.
L'autre sujet d'inquiétude réside dans la location des données et le droit applicable. Le Parlement européen s'est ému d'une réponse de Microsoft sur l'application du Patriot Act sur des données hébergées par l'éditeur américain. Cette soumission au Patriot Act commence à gêner les fournisseurs de clouds américains. L'Europe pousse certaines initiatives comme la création d'un cloud de stockage européen pour pallier à cette problématique.
(...)
Le marché des semi-conducteurs atone en 2011 selon Gartner
Selon Stephan Ohr, directeur de recherche pour les semi-conducteurs chez Gartner, «l'industrie a vécu une première partie de l'année correcte, sur sa lancée de 2010. Mais l'incertitude sur l'état de la situation macroéconomique, a marqué le milieu de l'année ». Les consommateurs font moins d'achats, les plans d'infrastructure des gouvernements ne sont plus au programme, seule la dette compte. Plus l'année avance et plus l'industrie des semi-conducteurs s'est retrouvée face à des ondulations du marché.
Intel a occupé la 1re position pour la 20e année consécutive, et 2011 est l'année où les parts de marché d'Intel sont plus élevées que jamais : 16,9%. Son précédent record remonte à 1998 avec 16,3%. Intel a connu une forte croissance au premier semestre et une année forte pour les produits serveur : Westmere et Nehalem. Son CA 2011 intègre l'unité d'affaires sans fil (UB) achetée auprès d'Infineon pour le premier trimestre de l'année.
Dans le top 10 des fournisseurs, Intel se retrouve donc avec 51 milliards de dollars de CA, 21,6% de progression et 16,9% de parts de marché. Samsung est loin derrière avec 29,1 milliards de dollars de CA, 3,7% de progression et 9,7% de parts de marché. Troisième, Texas Instruments, 12 milliards de dollars, 1,7% de parts de marché et 4% de progression. Toshiba, quatrième, affiche 11,7 milliards de dollars de CA, -5,4% de parts de marché, 3,9% de parts de marché, Renesas Electronics est à 10,2 milliards de dollars de CA,5% de progression, 3,5% parts de marché. Après on retrouve par ordre décroissant : Qualcomm (9,8 milliards d'euros de CA), STM (9,7), Hynix (9), Micron (7,6), Broadcom (6,6).
Samsung et Texas distingués
Le Gartner apporte également deux éléments qualitatifs, concernant l'un Samsung et l'autre Texas. Pour le coréen, sa progression est plus forte que celle du marché, et ce, malgré une forte exposition sur le marché de la Dram qui est en baisse. Mais la plus forte croissance chez Samsung provient de sa relation avec Apple, où il fournit le processeur A5 utilisée dans l'iPhone 4s et l'iPad2.
Texas Instruments, le n° 3, a sans doute la capacité la plus forte dans l'industrie des semi-conducteurs analogiques - une conséquence des acquisitions réalisées en 2010. Le ralentissement pour les appareils de gestion d'énergie, important dans la construction de récents datacenters, et dans le déploiement des ordinateurs personnels, l'affecte, mais moins que le ralentissement dans les amplificateurs et convertisseurs de données.
Les fabricants de processeur - Intel, Qualcomm, Advanced Micro Devices et Nvidia - ont surperformé le reste de l'industrie. Intel a progressé dans les serveurs malgré des ralentissements dans la production de PC. Qualcomm a été favorisé par des changements en cours pour la 4G et LTE services mobiles. La plateforme Nvidia Tegra a soutenu les tablettes.
(...)(19/12/2011 11:09:59)
Une société japonaise élit Amazon S3 et Microsoft Azure, meilleurs fournisseurs cloud
Pour son étude, Nasuni a considéré le cas d'une entreprise de taille moyenne souhaitant utiliser le cloud à des fins de stockage de données, de protection et de récupération en cas de catastrophe. Elle a ensuite effectué une série de tests sur 26 mois afin de déterminer la qualité des services fournis par les différents prestataires en termes de performance, de stabilité et d'extensibilité. Après chaque test, les prestataires dont les résultats étaient insuffisants ont été éliminés. Résultat des courses: sur seize fournisseurs considérés au début de l'étude, seuls six ont passé avec succès tous les tests: Amazon S3, AT&T Synaptic Storage as a Service (utilise EMC Atmos); Microsoft Azure; Nirvanix; Peer1Hosting (utilise EMC Atmos) et Rackspace Cloud.
Performance
En termes de performance, Nasuni a considéré la nécessité d'un traitement rapide des requêtes même en cas d'augmentation de la charge. Dans cette première série de tests, elle a donc a mesuré la performance des offres en termes d'écriture et de lecture sur des petits fichiers (1 Ko), des fichiers de taille moyenne (128 Ko) et des fichiers de grande taille (1 Mo). De manière générale, Amazon S3 et Microsoft Azure ont démontré les meilleures performances en termes de vitesse de lecture et d'écriture. Toutefois, pour les fichiers de grandes tailles, Nirvanix a obtenu d'excellentes performances.
Stabilité
Concernant la stabilité, Nasuni a testé la disponibilité des différents services au cours des 26 mois qu'a duré son enquête. Elle relève qu'en termes d'interruption de services, Amazon obtient les meilleurs résultats, avec 1,43 coupure par mois, et une disponibilité de 100%, le plus mauvais résultat étant enregistré auprès de AT&T avec une disponibilité de 99,5%.
ICTjournal.ch
[[page]]
Extensibilité
Enfin, troisième dimension des tests effectués, l'évolutivité (scalability) des systèmes. Pour tester ce volet des services fournis, l'entreprise japonaise a écrit en continu des petits fichiers (1 Ko) via chaque service de base de données, jusqu'à atteindre les 100 millions d'objets. Selon Nasuni, certains fournisseurs dont les résultats ne sont pas inclus dans son étude ont demandé à ce que ces tests soient interrompus en raison de leur impact négatif sur la qualité du service pour d'autres clients. Une exigence que Nasumi interprète comme une preuve de l'insuffisance des services cloud proposés par ces fournisseurs.
Ici encore, Amazon S3 et Microsoft Azure obtiennent les résultats les plus probants, avec un taux d'erreur nul en écriture, Microsoft Azure enregistrant un très faible taux d'erreur en lecture (0.07%), alors qu'Amazon S3 est le seul fournisseur du test à afficher un taux d'erreur nul en lecture également. Rackspace, bien placé dans d'autres tests de l'étude, affiche un taux de 59,63% d'erreur en lecture.
Amazon avec une petite longueur d'avance
En conclusion, Nasuni estime qu'Amazon S3 fournit le meilleur service, avec une petite longueur d'avance sur Microsoft Azure. «Bien qu'Azure soit légèrement plus rapide concernant l'écriture de fichiers, aucun fournisseur n'est parvenu à égaler la constance de la performance d'Amazon S3pour tous types de fichiers. Amazon S3 a connu le moins de coupures et la meilleure disponibilité. C'est également la seule offre à avoir obtenu un taux de 0,0% d'erreur aussi bien pour l'écriture que pour la lecture lors de tests d'évolutivité. Et si le « Ping » d'Azure obtient un temps de réponse légèrement inférieur à celui d'Amazon (sans doute du fait que le service d'Amazon est bien plus utilisé qu'Azure), Amazon S3 affiche néanmoins les plus faibles variations».
ICTjournal.ch
Microsoft rend Office 365 compatible avec le Patriot Act et les exigences européennes
Microsoft veut rassurer les futurs clients de ses offres de collaboration et de communication en ligne sur leur compatibilité avec les différents cadres réglementaires, européens ou américains. L'éditeur a pris certaines mesures dans ce sens. Quand un prestataire vend une solution Office 365 en Europe, Microsoft devra signer des « clauses types » développées par l'Union européenne, qui établissent des garanties et des procédures pour protéger les données lorsqu'elles sont transférées hors de l'UE. Dans les pays européens qui ont des exigences supplémentaires, la firme de Redmond va inclure ce qu'elle appelle « un accord sur le traitement des données » qui va au-delà des règles inscrites au sein des directives sur la protection des données.
Aux États-Unis, pour les contrats avec les sociétés relatives à la santé qui doivent se conformer au Health Insurance Portability and Accountability Act (HIPAA), Microsoft va inclure un Business Associate Agreement (BAA) émis par le ministère de la santé américaine pour garantir la protection des données des patients. Stephen McGibbons, CTO de Microsoft pour la région EMEA a déclaré « nous voulons aider les clients à avoir confiance et se sentir en sécurité dans le cloud, en respectant les obligations du HIPAA ou des directives européennes sur la protection des données ». Si les entreprises sont séduites par les applications en mode hébergé, celles gravitant autour de la santé ou de la finance et qui sont fortement réglementées, hésitent à adopter ces logiciels qui ne se conforment pas aux cadres réglementaires.
L'éditeur a également relancé Office 365 Trust Center, un site web donnant des informations sur la confidentialité des produits et les différentes politiques de sécurité. Il a été rénové pour être plus facile d'accès.
(...)
En formant ses étudiants à Cuda, la Chine se renforce dans le HPC
Le ministère chinois de l'Éducation a ainsi annoncé qu'il allait offrir la plate-forme de développement Nvidia Cuda (Compute Unified Device Architecture) à 200 universités, charge à elles ensuite de former jusqu'à 20 000 étudiants par an.
Architecture de calcul parallèle, Cuda permet aux développeurs d'adapter leur programme pour les environnements parallèles reposant sur les GPU Nvidia. Un outil toutefois particulièrement difficile à maitriser. Si Cuda a été développée par Nvidia, la compagnie a indiqué dans un communiqué diffusé après la conférence de presse chinoise qu'elle allait ouvrir la plate-forme en libérant le code source du compilateur.
Devenir un poids lourd dans le domaine du calcul sur GPU
Sumit Gupta, directeur marketing senior chez Nvidia, a ainsi déclaré que la décision de la Chine de développer la formation à Cuda est une reconnaissance « de la poursuite des investissements de la Chine dans la programmation parallèle et le calcul haute performance », et que l'utilisation des GPU était un bon moyen pour enseigner la programmation parallèle. C'est dû en partie à la grande disponibilité des GPU sur toutes les machines, des ordinateurs portables aux serveurs, a-t-il ajouté.
La formation à Cuda est désormais disponible dans trois ou quatre universités en Chine, mais le langage est enseigné dans près de 500 universités dans le monde, a déclaré M.Gupta. L'ouverture du code source permettra de soutenir plus de langages de programmation, et d'autres architectures processeurs, même alternatives, telles que celle proposée par AMD. Cuda supporte aujourd'hui le C, le C + + et le Fortran.
Un plan quinquenal pour le calcul parallèle
Nathan Brookwood, analyste principal chez Insight 64, a déclaré qu'une formation à la programmation parallèle est nécessaire. « La plupart des développeurs n'ont pas été formés à la façon d'écrire spécifique des approches parallèles, et, dans une certaine mesure, les outils pour écrire ces approches parallèles sont relativement obscurs ».
M.Brookwood ajoute que c'est à mettre au crédit de Nvidia qui a livré des outils tels que Cuda. « Ils permettent aux utilisateurs d'exploiter leurs algorithmes de façon plus parallèle et donc d'afficher une meilleure adéquation avec les GPU. Il y a énormément de gens très intelligents en Chine, et maintenant ils vont être formés à la meilleure façon de profiter de ces outils, » a déclaré l'analyste. Cette formation aidera également la Chine à développer son industrie d'externalisation, a poursuivi M.Brookwood.
En annonçant le plan de formation à Cuda en Chine, Li Maoguo, directeur de la division du bureau de l'enseignement supérieur au Ministère chinois de l'Éducation, a déclaré dans un communiqué qu'« à l'ère de l'économie de la connaissance, l'éducation technologique est un élément essentiel pour la compétitivité des étudiants dans un environnement mondial. »
Google App Engine adopte la réplication et la modularité des instances
La dernière version du SDK de Google pour la plateforme cloud App Engine inclut le service de réplication de données, baptisé High-Replication Datastore (HRD). Une version expérimentale de ce service avait été publiée en janvier 2011. Au bout de 6 mois, Google a constaté des problèmes de fiabilité dans les options standard de stockage. L'éditeur a donc attendu de résoudre ces difficultés pour l'intégrer dans son kit de développement.
Avec HRD, les données sont répliquées sur plusieurs datacenters. Cette offre, selon Google, accorde le plus haut niveau de disponibilité des données, mais cela se fait au prix d'une latence plus élevée en raison de la propagation des données. L'éditeur estime qu'un des avantages de HRD est que les applications demeurent entièrement disponibles lors de périodes de maintenances, mais aussi en cas de problèmes imprévus comme des pannes de courant.
Modularité des instances et API expérimentales
Parmi les autres apports du SDK, Google a introduit deux classes d'instance supplémentaires pour les applications plus gourmandes en puissance CPU et mémoire. Un troisième type sera modulaire. Par défaut, elle utilisera une instance basique comprenant 128 Go de Ram et 600 MHz de CPU. Les entreprises pourront faire évoluer les ressources de leur serveur virtuel en payant un complément.
La firme de Mountain View a intégré aussi des API expérimentales. L'API Conversion permet aux utilisateurs de convertir du HTML en PDF, d'extraire du texte au sein d'image en utilisant un OCR. Logs Reader donne, quant à elle, la possibilité de créer des rapports, de recueillir des statistiques, et d'analyser des requêtes.
Le SDK est disponible pour Java et Python, et les deux sont en version 1.6.1. Ils peuvent être téléchargés sur le site de Google.
< Les 10 documents précédents | Les 10 documents suivants > |