Flux RSS
Développement
1816 documents trouvés, affichage des résultats 641 à 650.
< Les 10 documents précédents | Les 10 documents suivants > |
(05/02/2009 15:12:34)
Gartner : les entreprises doivent se préparer au retard du logiciel sur le matériel dans les serveurs
Le Gartner s'inquiète. Les serveurs évoluent beaucoup trop rapidement pour le logiciel. Les puces comptent un nombre de plus en plus important de coeurs. Qui plus est, ces coeurs gèrent souvent chacun plusieurs threads (instructions élémentaires). Dans le monde du x86, de deux coeurs, on est passé à quatre, et on annonce bientôt huit. Or, le multicoeur n'est pas forcément synonyme de performances améliorées, au contraire ! Car les logiciels restent à la traîne. Très à la traîne. Systèmes d'exploitation, hyperviseurs, middlewares et applications sont loin de tirer parti de toute la puissance proposée par les serveurs multicoeurs. Deux coeurs dans un processeur ne donnent pas deux fois plus de puissance. Pire encore... Carl Claunch, analyste pour le Gartner, spécialiste des infrastructures serveurs, prévient : dès qu'on dépasse deux coeurs, on peut très bien voir la performance décroître ! Le surplus de travail imposé au système par la gestion de quatre coeurs, par exemple, peut induire un tel phénomène. L'analyste estime qu'un nombre significatif d'entreprise est déjà touché et qu'il ne va cesser d'augmenter. Les hyperviseurs sont de toute façon limités à quelques dizaines de coeurs Dans deux ans, selon Carl Claunch, on devrait déjà voir apparaître des serveurs équipés de 512 coeurs au total (32 sockets hébergeant chacun 16 coeurs). Dans quatre ans, ils en accueilleront le double... Or, l'analyste rappelle que la plupart des hyperviseurs ne peuvent dépasser 64 puces. Selon lui, ESX de VMware se limite à 32 coeurs et Hyper-V de Microsoft à 24. Du coté des OS, si Linux et Windows ne dépassent pas 64 coeurs à base de x86, z/OS atteint tout juste 64 et les Unix, moins limités, supportent entre 128 et 512 puces suivant l'éditeur. Pour adapter un logiciel à une configuration multicoeur, il ne suffit pas, comme on pourrait le croire, de découper le code en plusieurs parties pour le répartir sur les puces. « Diviser le logiciel en deux ou en quatre morceaux, n'est pas très compliqué, confirme Carl Claunch. Mais quand on passe à 128 ou 256 coeurs, c'est une autre question. » D'autant que, comme le précise l'analyste, il faut aussi équilibrer ces 'morceaux' de code pour qu'ils se répartissent judicieusement sur les coeurs du processeur. Le principe même de la parallélisation, du multithreading, de la répartition de tâches... L'industrie fait des efforts pour faciliter le portage des applicatifs [[page]] Bien sûr, l'industrie informatique, celle du matériel comme celle du logiciel, travaille dur pour sortir de ce qui ressemble fort à une impasse. Ainsi, Intel et Microsoft ont tous deux rendu disponible un ensemble d'outils facilitant le travail des développeurs. « Il faut dire qu'aucun fournisseur n'a intérêt à voir réduire le taux de renouvellement des machines en entreprise ! » rappelle Carl Claunch. Les utilisateurs pourraient en effet décider de ne pas changer de matériels, pour éviter les problèmes. Les laboratoires de recherche universitaire se penchent eux aussi sur ces questions de portage. Tous s'appuient aussi, bien entendu, sur les travaux réalisés durant des décennies par le monde du HPC (calcul haute performance), même s'ils ont été menés dans des contextes très différents. « Pour l'instant, persiste cependant Carl Claunch, il n'existe pas de solution unique et simple au développement de logiciel parallélisé. » Les entreprises doivent se préparer à une migration permanente des logiciels En résumé, il faudra des mois, voire des années, pour que le logiciel rattrape son retard sur le matériel. D'autant que les constructeurs ne vont pas stopper les évolutions de leurs serveurs pour attendre le logiciel. C'est pourquoi Carl Claunch conseille aux entreprises utilisatrices de se préparer à entrer dans une période de migration permanente de leurs logiciels. « Elles ne pourront plus stabiliser les installations durant 5 ou 6 ans comme avant. » « Les entreprises étaient habituées à migrer des versions de logiciel inchangées d'une infrastructure vers une autre. Ce ne sera plus possible. En conséquence, le cycle de vie du logiciel sera de plus en plus court. » Les utilisateurs devront investir davantage de budget dans les nouvelles versions et se doter de ressources plus importantes pour la maintenance. En ces temps de crise, ce genre de conseils risque de ne pas être très bien accueilli. « Pourtant aujourd'hui, il n'y a pas beaucoup d'autre solution, note cependant Carl Claunch. Quand un éditeur sort un système d'exploitation serveur, celui-ci va durer près de dix ans. Et il devra donc s'adapter à toutes les infrastructures qui sortiront durant cette période. Il faudrait que le fournisseur écrive son OS en anticipant ces machines, y compris celles dont on ne connaît absolument rien aujourd'hui... Impossible. » (...)
(03/02/2009 16:43:12)Le PDG d'Adobe relance le buzz au sujet de Flash sur l'iPhone
En termes de buzz, on n'est jamais aussi bien servi que par soi-même. C'est sans doute pourquoi le PDG d'Adobe, Shantanu Narayen, a profité de son exposition médiatique au Forum mondial de Davos pour raconter à des journalistes de Bloomberg que le portage de Flash sur l'iPhone est « un challenge technique difficile », mais qu'Apple et Adobe collaborent sur le sujet, et que « la balle est dans notre camp ». La petite phrase a rapidement fait le tour du Web, beaucoup de sites s'extasiant même sur cette collaboration, et sur l'arrivée prochaine de Flash sur l'iPhone. Dans les faits, voilà plusieurs mois qu'Adobe laisse entendre que la solution technique est prête, et que l'arrivée de Flash sur l'iPhone n'attend plus que le feu vert de Steve Jobs. En novembre dernier, l'accord avec ARM confirmait d'ailleurs cette information. Or, le patron d'Apple a lui aussi des ambitions en termes de plateforme de format de contenu multimédia, et n'a aucune intention de faciliter la tâche d'Adobe. La tactique de Shantanu Narayen s'apparente donc davantage à une démonstration de force - voyez comme l'attente des utilisateurs est grande - qu'à une véritable volonté d'informer. (...)
(02/02/2009 17:38:09)Microsoft ouvre le code de son projet Web Sandbox
Un Web plus sûr, telle est l'ambition de Microsoft avec son Web Sandbox : un bac à sable isolant l'exécution du code des serveurs Web (mash-up, publicités, etc.) du reste de la machine. La technologie, indépendante des navigateurs Web, avait été présentée au public des développeurs Microsoft en octobre dernier. Elle est désormais accessible à tous, Microsoft ayant publié le code sous licence Open Source Apache. Encore en cours de développement, le projet Web Sandbox n'est pas encore prêt à être inclus dans des développements. Le but de cette ouverture de la part de Microsoft est surtout d'encourager des éditeurs tiers à utiliser cette technologie, afin d'en faire un standard « ouvert et interopérable », deux mots sur lesquels l'éditeur insiste beaucoup en ce moment. L'annonce de l'ouverture du code a d'ailleurs été faite par l'équipe de Sam Ramji, le grand ordonnateur de l'Open Source au sein de Microsoft. Il faut bien noter que, même s'il passe sous licence Apache, le projet reste un projet Microsoft et non un projet Apache - contrairement à Stonehenge (code pour le développement d'applications orientées services). (...)
(29/01/2009 08:43:30)Le labo commun Microsoft-Inria expose ses projets
Deux ans après l'inauguration du laboratoire commun entre l'Inria et Microsoft, c'est un Bernard Ourghanlian (directeur technique et sécurité de Microsoft France) « content, et même plutôt impressionné » par les résultats obtenus, qui présente les projets menés conjointement par les chercheurs des deux entités. Toute une journée a été consacrée à l'événement hier, 28 janvier, à l'Ecole polytechnique. Dans la salle, « 200 personnes, essentiellement des chercheurs, venus du monde entier », précise Bernard Ourghanlian. Un rapport scientifique décrivant l'activité du centre de recherches commun sera présenté courant février. En attendant, cette journée a été l'occasion d'aborder les 7 projets sur lesquels travaillent les chercheurs depuis janvier 2007 (et parfois avant, certains liens ayant été établis longtemps auparavant). Les travaux sont répartis en deux thèmes: « la sécurité et la fiabilité du logiciel d'une part, les interactions entre l'informatique et les autres sciences d'autre part ». Dans tous les cas, précise Bernard Ourghanlian, « ce sont les ingénieurs de recherche qui choisissent les sujets sur lesquels ils vont travailler ». Dans le premier thème, il s'agit d'appliquer les mathématiques pour améliorer la sécurité et la fiabilité des logiciels. Trois projets sont regroupés sous cette ombrelle. Parmi eux, le recours à des programmes informatiques pour prouver des théorèmes mathématiques. La démonstration du théorème sur lequel travaille l'équipe d'une dizaine de chercheurs « tient sur 400 articles et 10 000 pages », explique Bernard Ourghanlian. Et encore, dit-il, « il n'est prouvé que parce qu'il a été lu par des pairs mathématiciens, qui l'ont déclaré correct avec une certitude de 99% ». Le projet vise à créer une bibliothèque de preuves élémentaires qu'un logiciel pourra utiliser pour obtenir une preuve parfaite. « Et inversement, on pourra utiliser les mathématiques pour prouver qu'un logiciel est correct. » A l'heure actuelle, seuls les projets informatiques où la sécurité des personnes est en jeu (gestion du trafic du métro, informatique embarquée dans les avions ou les voitures, gestion opérationnelle des centrales nucléaires, etc.) se permettent de prendre le temps de recourir à des méthodes formelles pour s'assurer de la fiabilité des logiciels. Apporter des preuves formelles de sécurité dans un environnement distribué Toujours dans le thème de « l'informatique de confiance » cher à Microsoft (qui s'échine ainsi à faire oublier ses failles de sécurité et autres bugs à répétition), le deuxième projet a pour but, dans une architecture distribuée, d'apporter des preuves formelles de sécurité. Qui permettront par exemple de prouver qu'une machine n'est pas sûre, ou au contraire qu'un protocole de sécurité est bien respecté. « Quand je suis connecté au site de ma banque, prend comme exemple Bernard Ourghanlian, je veux être certain que c'est bien le site de ma banque. Et réciproquement, ma banque veut être sûr que c'est bien moi. Ce n'est pas toujours simple. » Dans le troisième projet tombant dans cette catégorie, il s'agit de recourir à une méthode (TLA, Temporal logic of actions) et à un langage (TLA+) pour s'assurer que ce qui est obtenu à partir d'un modèle est bien ce qui était voulu au départ. L'idée, expliquent les auteurs du projet, est de pouvoir « attraper les bugs dans un algorithme ou la modélisation d'un système avant même qu'il ne soit implémenté ». Un dictionnaire mathématique en ligne et des interfaces homme/machine pour les scientifiques [[page]] Le deuxième thème de recherches, dont l'ambition est de mettre l'informatique au service des scientifiques, comporte quatre projets. Le premier vise à créer une sorte de dictionnaire dynamique de fonctions mathématiques, « de façon, explique Bernard Ourghanlian, à ce que les physiciens disposent d'une fonction de génération automatique de fonctions mathématiques, au travers d'une interface Web, avec la possibilité de modifier les paramètres et les variables d'une manière graphique ». Un premier prototype est d'ailleurs opérationnel. Un autre projet, nommé Reactivity, s'intéresse aux interfaces homme/machine, et plus précisément à la manière dont un scientifique peut utiliser un outil informatique pour prendre ses notes et stocker ses informations, de façon à pouvoir ensuite les réorganiser et fouiller dedans. Les buts du projet sont aussi bien de pouvoir « capturer l'activité de l'utilisateur » que de lui permettre « d'interagir avec ses activités passées ». La programmation par contraintes pour optimiser les algorithmes Le projet de recherches combinatoires pour les e-sciences espère de son côté parvenir à des algorithmes d'optimisation capables de s'adapter aux problèmes combinatoires les plus complexes. Les 'solveurs' actuels, indiquent les responsables du projet, ne savent pas prendre en compte la complexité croissante des projets scientifiques. L'équipe travaille donc à optimiser ces outils avec de la programmation par contrainte. Bernard Ourghanlian souligne à ce propos qu'un module développé dans le cadre de ce projet, par Youssef Hamadi, sera intégré à la prochaine version de MS Project, qui doit justement aider les gestionnaires de projet à jongler avec les contraintes de ressources, de tâches, de budget, de temps... Le dernier projet vise à inventer des systèmes de modélisation permettant de fouiller dans les images et les vidéos, et d'en tirer des informations. Il avait déjà été en partie présenté lors des TechDays de Microsoft France, en février 2008. Si Microsoft ne veut toujours pas dire combien il a investi exactement dans ce partenariat avec l'Inria (l'éditeur prenant en fait à sa charge la moitié des quelque 50 personnes du centre de recherches), Bernard Ourghanlian répète que ce type de recherches fondamentales est un investissement à long terme, et qu'en tant que tel, il n'est pas touché par un quelconque plan de réduction des coûts. Et en attendant les applications concrètes, 7 modules logiciels sont prêts et proposés au public en Open Source. (...)
(22/01/2009 16:46:04)Microsoft livre du code à un projet SOA de la fondation Apache
Microsoft a, pour la première fois, contribué à un projet Open Source Apache sous forme de code. L'équipe 'interopérabilité' de l'éditeur, sous la direction de Sam Ramji, avait déjà exprimé son soutien au projet Stonehenge en novembre, lors du dernier ApacheCon, la conférence utilisateurs de la fondation Apache. Stonehenge vise à démontrer les possibilités d'interopérabilité d'applications SOA (conçues selon les préceptes des architectures orientées services) conformes aux standards du W3C et de l'Oasis, lorsqu'elles sont implémentées dans des technologies différentes et exécutées sur des plateformes différentes. Microsoft a travaillé sur un projet d'application de démonstration, StockTrader, logiciel de gestion d'un portefeuille boursier. Développé en .Net et recourant aux services Web, il est notamment compatible avec une implémentation Java réalisée par IBM. Microsoft a également travaillé avec WSO2, éditeur de middleware Open Source, qui avait déjà fourni le code de son application StockTrader. Cette fois, c'est Microsoft qui a livré sa propre implémentation, et qui engage trois personnes de son équipe dans le processus. Cet investissement dans la communauté Apache avait commencé en juillet dernier, lorsque Microsoft a décidé de devenir l'un des sponsors de la fondation, au niveau Platinum - soit le niveau de soutien financier maximum, de 100 000 dollars. L'ensemble de ces actions porte l'empreinte de Sam Ramji, qui expliquait lors d'un récent point presse avec des journalistes français que la politique d'ouverture qu'il mène porte ses fruits, mais que cela prendra des années avant que Microsoft ait une attitude totalement apaisée à l'égard de l'Open Source. (...)
(15/01/2009 16:11:10)Plus de la moitié des développeurs prévoient de travailler sur des projets Saas
Signe, s'il en était encore besoin, que le logiciel 'on demand' a le vent en poupe : plus de la moitié des développeurs (52%) prévoient de travailler sur des projets d'applications Saas (software as a service) en 2009. C'est la principale conclusion d'une étude réalisée par Evans Data auprès de 1300 développeurs dans le monde entier. Pour l'institut d'études, ce constat est la preuve que les entreprises prennent conscience des avantages du Saas, notamment son coût réduit et son déploiement plus simple que pour le modèle traditionnel. Actuellement, c'est en Amérique du Nord qu'on compte la plus grande proportion de développeurs travaillant sur des projets Saas (30%). Ils sont moins nombreux dans la zone EMEA mais Evans Data estime que 53% d'entre eux franchiront le pas cette année. Un taux qui devrait être encore supérieur en Asie. Par ailleurs, Evans Data note que les projets 'cloud' restent moins nombreux que ceux consacrés au Saas, avec moins de 10% des développeurs travaillant sur ce sujet. Ce nombre devrait toutefois progresser en 2009 : plus du quart des personnes interrogées prévoient des développements 'cloud' cette année et près de la moitié des développeurs asiatiques envisagent de travailler autour de ce thème. (...)
(13/01/2009 12:33:44)Avis de décès des SOA : les réactions
Notre article et le billet de blog sur l'avis de décès des SOA prononcé par Anne Thomas Manes, du Burton Group, ont suscité des commentaires. Le directeur technique de l'éditeur Scort et le directeur technique du cabinet d'architecture Vistali nous ont spontanément fait parvenir leur réponse. Marc Boullier, directeur technique de Vistali, explique ainsi que beaucoup de technologies qui semblaient avant-gardistes à une époque sont finalement passées aujourd'hui dans notre quotidien (à lire ici). Jean-François Maury, directeur technique de Scort, indique de son côté qu'on n'a pas assez pris en compte les problématiques organisationnelles (à lire ici). (...)
(13/01/2009 07:53:34)La NSA liste le top 25 des erreurs de programmation ouvrant des failles de sécurité
Ce sont des erreurs de programmation courantes, et elles ouvrent des failles de sécurité béantes dans les logiciels : la NSA (National security agency), agence fédérale américaine de sécurité, a mis en oeuvre un programme pour déterminer les 25 plus courantes. Ce top 25 se divise en trois catégories : les interactions non sécurisées entre composants (9 erreurs), une gestion hasardeuse des ressources (9 erreurs) et des défenses poreuses (7 erreurs). D'après les responsables du projet, deux seulement de ces erreurs ont provoqué en 2008 quelque 1,5 million de failles dans les sites Web, et se sont répercutées dans les PC visitant ces sites, les transformant en zombies. Le projet, initié par la NSA et la division cyber-sécurité du ministère américain de la Sécurité intérieure, a vu la collaboration de plusieurs instituts (Sans, Mitre, Secunia...) et éditeurs (Microsoft, Oracle, RSA, Symantec...). Le chef du projet explique que si les débats ont été parfois chauds, il y a eu un consensus plutôt large pour établir ce top 25 des erreurs de programmation les plus courantes ouvrant des failles de sécurité. Les agences fédérales américaines espèrent, en publiant la liste des erreurs et la façon de les empêcher, faire prendre conscience aux développeurs des conséquences en matière « de cyber-espionnage et de cyber-crime ». Car étonnamment, poursuit Bob Martin, du Mitre (organisme à but non lucratif travaillant à la sécurisation des systèmes gouvernementaux américains), « la plupart de ces erreurs ne sont pas bien connues des développeurs ; le moyen de les éviter peu enseigné par les écoles ; et leur présence rarement testée par les éditeurs de logiciels commerciaux ». (...)
(12/01/2009 10:57:45)L'Open Cloud Consortium veut promouvoir un cloud computing ouvert
En matière de cloud computing, la technique suit le marketing. Un groupe d'universités américaines* vient de créer l'Open Cloud Consortium (OCC), une association qui a vocation à améliorer les performances des technologies impliquées dans le cloud computing, à y promouvoir l'utilisation des logiciels libres et l'interopérabilité entre chaque implantation. "Notre but est qu'il ne soit pas nécessaire de réécrire les applications si l'on change de fournisseur" explique Robert Grossman, président de l'OCC et directeur du Laboratory for Advanced Computing (LAC) et du National Center for Data Mining (NCDM) à l'université de l'Illinois.
Mise à disposition d'un banc de tests
Robert Grossman annonce cinq axes de travail : - le développement de standards pour le cloud computing, d'interfaces et de frameworks pour l'interopérabilité entre les différentes implantations, - le support des logiciels Open Source pour le cloud computing, - le développement de tests de performances (benchmarks) pour le cloud computing, - la mise à disposition d'un banc de tests, l'Open Cloud Testbed, se composant de quatre sites reliés entre eux par une connexion Ethernet à 10 Gigabit, - et le soutien d'ateliers et d'événements sur le sujet.
Seul Cisco soutient l'OCC pour l'instant
L'OCC travaille avec les logiciels open source suivants : Hadoop, développé par le consortium Apache, et Thrift, originaire de Facebook. Thrift est un framework qui permet de développer des services à partir de plusieurs langages (C++, Java, Python, PHP et Ruby). L'OCC a aussi mis au point Sector qui utilise le protocole UDP et non TCP. Couplé avec Sphere, développé par le National Center for Data Mining, il délivre des performances deux fois supérieures à celle d'Hadoop qui repose sur TCP. Pour l'instant, seul Cisco, parmi les grands acteurs de l'industrie, apporte son soutien à l'OCC. Les autres (IBM, Microsoft, Oracle Amazon, Google...) ont, pour une raison ou pour une autre, moins d'enthousiasme à vouloir favoriser une standardisation du cloud computing qui profite surtout aux utilisateurs. Il reste à espérer que l'OCC parvienne à ses fins. (...)
41 rustines pour le Patch Tuesday à la mode Oracle
Oracle lancera mardi prochain sa première salve de rustines de l'année 2009. D'après le bulletin préliminaire de l'éditeur, ce Critical Patch Update (CPU) rassemblera pas moins de 41 mises à jour de sécurité « concernant des centaines de logiciels Oracles différents ». Plus de 15 d'entre elles concernent des failles pouvant être exploitées sans authentification préalable de l'utilisateur, ce qu'Oracle considère généralement comme un niveau de sévérité majeur. Neuf d'entre elles sont dans Oracle Secure Backup, deux dans Application Server et cinq dans la suite de produits BEA. Avec 41 rustines, cette première mise à jour trimestrielle pour 2009 se situe dans la lignée de la dernière de 2008 avec ses 36 patchs. Des chiffres relativement peu élevés comparés aux centaines de rustines délivrées chaque trimestre en 2006 par exemple. Pour autant, et malgré les incitations d'Oracle, les administrateurs sont plutôt réticents à installer ces rustines, ne voulant pas interrompre les machines pour elles et craignant qu'elles ne perturbent le fonctionnement d'applications souvent critiques pour l'entreprise. (...)
< Les 10 documents précédents | Les 10 documents suivants > |