Flux RSS

Infrastructure serveur

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

2924 documents trouvés, affichage des résultats 1 à 10.

Les 10 documents suivants >


(10/05/2012 11:20:40)

Google simplifie l'utilisation de ses API analytiques

Google a développé un outil pour automatiser la création de tableaux de bord personnalisés sur son service d'analyse de la fréquentation des sites web. La bibliothèque Google Analytics Easy Dashboard donne aux développeurs la possibilité d'élaborer ces éléments de reporting sans passer par une phase d'apprentissage des API analytiques mises à disposition et sans avoir besoin d'écrire manuellement le code. Il suffit que les webmasters s'enregistrent pour accéder à la console API de Google, qu'ils copient et collent une portion de code JavaScript puis ajustent celui-ci pour le type de données qu'ils veulent récupérer et le type de graphiques qu'ils souhaitent afficher.
« Vous pouvez ainsi créer très rapidement des tableaux de bord Google Analytics, avec très peu de code », écrivent dans un billet de blog Jeetendra Soneja et Nick Mihailovski, membres de l'équipe concernée chez Google.

La société dirigée par Larry Page a bâti l'outil en collaboration avec une équipe d'étudiants de l'Université de Californie d'Irvine. Elle travaille aussi avec un autre groupe d'étudiants pour le simplifier encore. 

Google Analytics est une application cloud que les webmasters utilisent pour surveiller le trafic sur leurs sites web et analyser l'utilisation qui en est faite pour déterminer l'efficacité des différentes catégories de contenus et publicités.

(...)

(10/05/2012 10:39:42)

Gartner dessine les contours du cloud personnel

Intitulée «Competitive Landscape: Consumer Personal Cloud», cette étude décrit un réel changement de paradigme en cours dans les attitudes des utilisateurs en matière de stockage et de synchronisation de données, suite aux développement récents des services et apps.

Alors que le cloud sert des fonctions aussi variées que les affaires, l'administration publique, ou les loisirs, l'étude relève qu'aucune entreprise ne peut à l'heure actuelle prétendre dominer l'ensemble de ces services. Ainsi si les grands fournisseurs comme Microsoft, Apple, Amazon and Google font des efforts considérables pour se positionner, beaucoup de plus petits fournisseurs misent sur des offres «verticales», en offrant des services de stockage et de streaming accessibles depuis certaines plateformes et appareils particuliers.

Mobilité, plateforme indépendante, et synchronisation

L'étude distingue trois aspects autour desquels les fournisseurs devraient se profiler à l'avenir: la mobilité, l'indépendance des plateformes et la synchronisation. Ainsi l'indépendance des plateformes implique que le choix du consommateur ne sera plus déterminé en fonction du système d'exploitation ou des apps d'un appareil, mais bien plutôt du type de services cloud accessibles. Quant à la synchronisation de données stockées localement vers les fonctions du cloud, celle-ci devra être fluide, et impliquera des fonctions de contrôle d'identité du consommateur, ainsi qu'une capture permanente de ses états d'utilisation, avec la possibilité d'activer ou de désactiver chacune de ces fonctions. 

Selon Michael Gartenberg, directeur de recherche chez Gartner, «il règne encore une certaine confusion sur la nature du cloud personnel parmi les consommateurs. Le fait que beaucoup de vendeurs continuent à assimiler les services du cloud avec le stockage en ligne exclusivement et négligent ses autres aspects et potentiels n'arrange pas les choses. A l'avenir, les consommateurs vont définir eux-mêmes leur propre ensemble de services cloud».

ICTjournal.ch

(...)

(07/05/2012 10:41:08)

L'industrie adopte le cloud plus vite que la santé

IDC publie deux études sur l'attrait et les freins aux services du cloud, d'une part auprès des entreprises industrielles, d'autre part auprès des prestataires de soins en Europe de l'Ouest, en sondant leurs projets d'investissement dans le domaine. Citant des avantages en matière d'agilité commerciale, de qualité des services et de partage d'information avec leurs partenaires, 60% des entreprises manufacturières déclarent disposer d'un budget dédié au cloud et ne pas prévoir réduire ce dernier. En outre, la moitié des entreprises interrogées déclarent vouloir y dédier davantage de moyens dans le futur.

Ces investissements sont principalement dirigés vers les applications de collaboration et de service à la clientèle (CRM). Selon Pierfrancesco Manenti, chef de IDC Manufacturing Insights, EMEA, «des craintes subsistent encore, notamment en matière de sécurité et de disponibilité, cependant ces craintes habituelles sont rapidement compensées par les avantages massifs qui découlent de ces investissements, ce qui explique aujourd'hui une telle conversion».

Prestataires de soins plus réticents

Du côté des prestataires de soins, la prudence est toujours de mise, puisque seuls 6% des responsables IT disent consacrer plus de 10% de leur budget au cloud computing. Parmi les freins, une nécessité que les infrastructures restent privées pour cause de sécurité des données - dissuadant ces derniers de déployer leurs systèmes et informations au-delà de leur firewall - et la nécessité d'être en conformité avec les exigences légales en matière d'audit. Cependant, les prestataires de soins pourraient  profiter dans le futur d'investissements publics de plus en plus importants dans le cloud, qui leur permettraient notamment de surmonter ces barrières légales.

Selon Silvia Piai, research manager EMEA chez IDC Health Insights, «nos résultats démontrent que les prestataires de soins ont conscience des avantages potentiels du cloud et ont l'intention de les explorer dans le futur; ces avantages concernent notamment le self-service, des économies d'échelle, la flexibilité, le principe pay-as-you-go, et une amélioration du rapport valeur/temps de la technologie».

ICTjournal (...)

(02/05/2012 10:49:43)

L'hopital de Saint-Quentin choisit PRTG Network Monitor pour veiller sur ses infrastructures

Le centre hospitalier de Saint-Quentin dispose de 976 lits accueillant 53 000 hospitalisés chaque année grâce à ses 2 500 collaborateurs. Son activité nécessite de disposer en permanence d'infrastructures opérationnelles. Celles-ci sont réparties dans de petits locaux techniques dispersés qui doivent être surveillées également sous l'angle de la température.
Son réseau est divisé en deux : d'un côté le réseau professionnel et de l'autre un réseau moins sensible pour les accès Internet des patients et du public. Tous les matériels de réseau (switch, etc.) sont installés dans des locaux techniques de 9 m² dispersés et donc sans surveillance humaine. Par ailleurs, les salles serveurs hébergent de multiples applications sur de nombreuses machines.

Pour éviter les crashs du matériel pour des raisons physiques, il faut que la température reste constante dans une plage donnée. Cette température doit donc être surveillée en même temps que l'activité réseau au sens strict. Pour le faire, 6 080 capteurs ont été installés. L'ensemble, y compris les capteurs de température, est surveillé par une solution unique, PRTG Network Monitor. Le tableau de bord est affiché en permanence sur un grand écran dans la salle informatique, visible de tous les informaticiens, permettant ainsi une réactivité forte des équipes. De plus, une application pour iPhone permet également un monitoring à distance pour les techniciens d'astreinte. Le coût du projet n'a pas été dévoilé. (...)

(02/05/2012 09:26:11)

Impact2012 : IBM fournit des clés pour adopter ses PureSystems

Trois semaines après les avoir annoncés, IBM a exposé ses appliances PureSystems à Las Vegas, lors de sa conférence Impact2012 consacrée à sa gamme de solutions middleware WebSphere (du 29 avril au 4 mai, 8 500 personnes sont attendues). Déclinées en solutions de cloud privé IaaS (PureFlex) et PaaS (PureApplication) sur serveurs PowerPC ou Intel, ces appliances associent les savoir-faire combinés d'IBM sur la gestion d'infrastructure à des modules d'expertise pré-intégrés, afin d'automatiser et d'optimiser la gestion de l'environnement informatique.

Sur Impact2012, la dernière-née d'IBM a joué les stars, poussée sur scène sous les feux des projecteurs, lors du keynote d'ouverture de Marie Wieck, directrice générale, responsable des solutions d'intégration de l'entité Logiciels d'IBM (voir photo principale). A sa suite, Jason McGee, Chief Architect sur l'offre WebSphere Cloud Computing, a vanté la rapidité d'installation des PureSystems, appuyé par une courte vidéo déroulant comment, en 4 heures chrono, le système, connecté et initialisé, était prêt à l'emploi.

Appliances PureSystems sur la conférence Impact2012 d'IBM
Une appliance qui s'installe en 4 heures chrono, assure IBM (crédit : M.G.)

Développer ses propres modules d'expertise

Lors de l'annonce, IBM avait précisé que plus de 125 éditeurs et constructeurs avaient déjà ajouté leurs solutions et modules d'expertise aux siens pour exploiter la famille PureSystems de façon optimisée avec leurs solutions. Plus de 150 d'entre eux sont déjà répertoriés dans le catalogue PureSystems Center. Les modules d'expertise (qu'IBM désigne en anglais sous le nom de patterns) se répartissent en trois catégories selon qu'ils s'appliquent aux ressources d'infrastructure (serveurs, stockage, réseau, virtualisation), à celles de la plateforme (bases de données et logiciels de middleware) ou encore, aux applications.

Parmi ceux d'IBM figurent, par exemple, un module de migration qui facilite les déploiements dans un environnement PureApplication et un autre visant à simplifier la maintenance. On y trouve aussi un module destiné au déploiement de bases de données (pour des traitements OLTP ou la mise en place de datamarts) et un autre conçu pour la mise en oeuvre d'applications de Business Intelligence. Il en existe également un qui automatise la vingtaine d'étapes nécessaire au déploiement d'applications web.

Une Sandbox gratuite pendant trois mois dans SmartCloud

Ces modules d'expertise constituent des éléments essentiels aux bénéfices d'optimisation apportés par les PureSystems. IBM a donc poussé cette logique en permettant aux entreprises de développer elles-mêmes leurs propres « patterns ». Sur Impact2012, Marie Wieck a ainsi annoncé l'arrivée d'un Virtual Pattern Kit, gratuit, qui aidera à convertir une expertise technologique en composante réutilisable pour automatiser certaines tâches informatiques. Le toolkit aidera les entreprises à préparer leur développement qui sera finalisé en collaboration avec IBM. Les « patterns » ainsi créés pourront ensuite être directement intégrés dans les appliances PureSystems.

Pour bâtir et tester ces modules, IBM propose à ses clients et partenaires d'accéder à des environnements PureSystems en passant par son service IaaS SmartCloud. L'utilisation de cette Sandbox est disponible à l'essai gratuitement pendant trois mois. Les développeurs pourront y concevoir des applications qui s'exploiteront ensuite indifféremment sur l'appliance PureApplication ou dans SmartCloud. L'essai gratuit inclut des fonctions de gestion du cycle de développement logiciel qui permettront à des équipes de travailler de façon collaborative.

IBM PureApplication System est conçu pour le cloud
Les applications conçues dans SmartCloud tourneront indifféremment sur un système PureApplication (cliquer ici pour agrandir l'image).

Faire croître l'écosystème

Sur Impact2012, l'exemple de SugarCRM a été évoqué. Cet éditeur de solutions de CRM en Open Source fait partie des 125 sociétés qui ont développé un « plug-in » pour PureSystems, avec Infor, Esri, Coheris, Sopra (pour Evolan), Sab, EnterpriseDB, SAS, ou Saba, entre autres. Dans un document publié sur son site, IBM relate sa démarche. « SugarCRM est une application PHP nécessitant une pile LAMP (Linux, Apache, MySQL, PHP) qui n'est pas supportée de base par les PureSystems ». L'équipe a donc élaboré un module d'expertise et un jeu de plug-in qui supportent la modélisation, le déploiement et l'exploitation d'une application au-dessus de la base Linux ou de l'image AIX.

En fournissant la sandbox et les outils pour faciliter la mise au point de modules d'expertise et de plug-in, IBM espère susciter une émulation et faire grossir l'écosystème autour de sa famille PureSystems. 

Sur Impact2012, trente-cinq clients et partenaires français d'IBM ont fait le déplacement, la plupart ayant manifesté leur intérêt pour la famille PureSystems. Sur la vingtaine de clients figurent de grandes banques, des opérateurs de télécommunications, des fournisseurs d'énergie, mutuelles... « Les grands clients s'intéressent à PureApplication System », confirme Rémy Mandon, responsable WebSphere France, IBM Software Group, en ajoutant que l'offre PaaS devrait être disponible en trois versions, proposant différentes tailles de configurations.

(...)

(27/04/2012 13:04:24)

Amazon courtise les entreprises avec son cloud privé virtuel (VPC)

Pour attirer dans le cloud les entreprises, Amazon Web Services (AWS) fait valoir la qualité des fonctions de sécurité de son cloud privé virtuel (VPC) lancé en 2009. Même si le cloud computing est source d'économies potentielles, beaucoup d'entreprises restent encore rebutées par des préoccupations de sécurité. Dans un sondage réalisé en 2011 par le Cloud Industry Forum auprès de 300 entreprises, 62% d'entre elles mettent la sécurité des données au premier plan de leurs préoccupations, et en font le premier déterminant à l'adoption du cloud.

Alors que le cloud public est largement considéré comme inadapté aux applications professionnelles critiques, certaines entreprises commencent à davantage utiliser les clouds privés. Dans ce cas, ce sont souvent des datacenters sur site qui utilisent une technologie équivalente au cloud. Avec le VPC, l'infrastructure informatique est hébergée dans le propre cloud public EC2 d'Amazon. Un espace isolé du cloud public est dédié aux clients qui peuvent le relier à leur propre datacenter via une passerelle Internet, par exemple un réseau privé virtuel (VPN) ou un réseau dédié connecté à l'aide d'AWS Direct Connect. Contrairement à EC2, qui attribue une adresse IP publique aléatoire à toute instance opérationnelle, les instances VPC disposent d'adresses privées. « Toutes les ressources installées dans le cloud privé virtuel ne peuvent communiquer qu'avec le propre centre de calcul de l'entreprise concernée », a expliqué Werner Vogels, CTO d'Amazon lors d'une conférence qui s'est tenue à Londres cette semaine. « C'est aussi une manière pour l'entreprise de moduler à volonté la taille de son environnement sur site. »

Sécurisation des accès

Pour Steve Schmidt, directeur général et CISO d'Amazon, qui travaillait auparavant pour le FBI, l'offre Virtual Private Cloud a suscité beaucoup d'intérêt de la part des entreprises depuis son lancement en 2009. Selon lui, ce qui attire le plus les entreprises, c'est qu'elles peuvent passer par la même structure de contrôle pour leur VPC et pour leur infrastructure sur site. Cela comprend aussi les pare-feu de la couche réseau, les configurations d'adresses IP et l'infrastructure de gestion. «Beaucoup de clients demandent comment fonctionnent les pare-feu dans le VPC et en quoi cela diffère de ce qui se passe sur l'EC2 », a déclaré Steve Schmidt. « L'EC2 oblige à la mise en place de pare-feu entrants pour toutes les instances, et ces pare-feux sont sans états (stateless firewalls). Le VPC nécessite également des pare-feu entrants obligatoires, mais ils sont à états (stateful firewalls). Et il a aussi des pare-feu sortants. Ainsi, il est possible contrôler tout ce qui peut entrer et sortir de la machine ».

Le Virtual Private Cloud d'Amazon dispose de listes de contrôle d'accès (ACL) au niveau du réseau, qui gèrent les échanges entre les serveurs web, les serveurs d'applications et les bases de données. En option, AWS permet également aux clients qui veulent être locataires uniques d'un morceau physique de hardware d'avoir des instances dédiées. « Si le CSO demande à ce que toutes les données résident sur un ensemble particulier de machines, c'est possible. Celui-ci pourra augmenter ou abaisser la taille de son espace à volonté et les données iront exclusivement sur ces machines réservées », a déclaré Steve Schmidt.

Aux clients de déployer les outils de sécurité

Cependant, celui-ci a ajouté que la position d'Amazon en ce qui concerne le partage des responsabilités entre AWS et les clients était très claire. Si Amazon prend la responsabilité de « bétonner la sécurité au niveau de l'hyperviseur », il revient aux clients de définir leur niveau de tolérance en matière d'exposition de l'information. Et par conséquent, c'est aux clients de décider quels outils de sécurité ils choisissent de mettre en oeuvre. «Nous fournirons aux clients une suite d'outils qu'ils peuvent utiliser pour assurer de manière appropriée la sécurité de leur information et celle de leurs systèmes. Nous leur donnerons un ensemble de meilleures pratiques qui expliquent et suggèrent comment configurer et utiliser les outils mis à leur disposition. Mais ce sera à eux de décider comment les mettre en oeuvre dans leur propre environnement », a-t-il déclaré.

 Lors du Cloud Computing for the Enterprise d'Amazon, Werner Vogels a également déclaré que les startups et les petites entreprises avaient pris un avantage sur les grandes entreprises. Selon le CTO d'Amazon, « elles ont intégré plus rapidement les analytiques au coeur de leur activité, et font, de fait, un meilleur usage du big data ».

(...)

(26/04/2012 17:40:47)

Selon Amazon, les start-ups sont en pointe pour l'analyse des big data

Selon Amazon Web Services (AWS), les start-ups et les petites entreprises sont en train de prendre l'avantage sur les plus grandes entreprises en mettant les analytiques au coeur de leur activité. Lors d'un événement qui s'est tenu à Londres mercredi, Werner Vogels, le CTO d'Amazon a déclaré que « historiquement la business intelligence était un « domaine secret des grandes entreprises ». Cependant, avec l'avènement du cloud computing, les petites entreprises ont pu avoir accès à des applications comme Hadoop, qui leur ont permis d'acquérir un avantage concurrentiel. « Ce secteur que nous pensions réservé à certains acteurs est en train de basculer au bénéfice d'entreprises plus jeunes », a déclaré Werner Vogels. Une des raisons, c'est qu'elles « ont mis le big data au coeur de leur activité beaucoup plus rapidement afin d'améliorer leurs services de façon permanente. Comparativement, les autres entreprises ont pris du retard ».

Selon le CTO d'Amazon, la fidélité envers les marques n'est plus de mise, ce qui oblige les entreprises à être plus audacieuses. Si bien que, de son point de vue, les entreprises ont beaucoup à apprendre des start-ups qui développent souvent leurs produits et leurs services dans des conditions d'extrême incertitude, et comprennent l'importance qu'il y a à mettre rapidement leurs produits sur le marché. « La solution, c'est de faire beaucoup de tentatives et d'échouer rapidement », a déclaré Werner Vogels. « Dans le passé, ce type d'expériences coûtaient très chères, et souvent le budget qu'il fallait y consacrer suffisait pour tuer toute nouvelle idée. Mais avec le cloud, ces risques ont été réduits de manière significative. Alors, dans la mesure où le prix de l'échec est quasi nul, il y a là une réelle motivation à multiplier les tentatives », a t-il expliqué.

50 000 coeurs pour 5 000 dollars de l'heure


Le CTO d'Amazon en a profité pour rappeler un des objectifs d'Amazon, à savoir : mettre un supercalculateur à la portée de tout développeur. Celui-ci a cité l'exemple de Cycle Computing, qui permet aux chercheurs et aux entreprises de faire tourner des applications de calcul intensif dans l'infrastructure Amazon EC2. Cycle Computing a construit un supercalculateur intégrant 50 000 coeurs dans le cloud AWS pour Schroedinger, une entreprise qui effectue des recherches sur les drogues. « Jusqu'à encore récemment, il aurait fallu des années pour analyser un ensemble de 21 millions de composés chimiques avec une petite instance HPC intégrant quelques centaines de coeurs ». Grâce au supercalculateur de Cycle Computing, Schrödinger a effectué ses tests en trois heures seulement. « Ce supercalculateur de 50 000 coeurs est immédiatement accessible pour 5000 dollars de l'heure. Cela signifie aussi qu'il est disponible pour tout le monde », a déclaré Werner Vogels.

Le point de vue du CTO donne bien la tonalité de la conférence d'Amazon qui a insisté sur le fait que les services cloud étaient désormais prêts pour l'entreprise, et que leur adoption avait beaucoup augmenté au cours des 18 derniers mois. Amazon a cité les noms d'entreprises clientes comme Shell, Samsung, SAP ou encore le journal The Guardian, « qui utilisent toutes l'AWS pour améliorer l'agilité et acquérir un avantage concurrentiel ».

Les éditeurs se sont adaptés au cloud


Selon le CTO d'Amazon, Oracle et SAP ont modifié leurs applications pour permettre leur déploiement dans des zones de disponibilité multiples, et d'autres entreprises comme Microsoft, IBM et Red Hat permettent également le déplacement de licence, ce qui laisse la possibilité aux entreprises de gérer leurs licences existantes sur AWS, un concept surnommé « bring your own licence » par Amazon.

Peu de temps avant la conférence, Amazon Web Services a lancé une série de nouveaux produits et services destinés à l'entreprise, dont AWS Direct Connect, AWS Storage Gateway, DynamoDB, CloudSearch et AWS Marketplace. « L'informatique est souvent considérée comme un frein à l'innovation », a encore déclaré M. Vogels. « L'une des raisons pour laquelle nos clients adoptent les services cloud d'AWS, c'est que ces services peuvent justement devenir un catalyseur de l'innovation ». (...)

Les 10 documents suivants >