Flux RSS
Infrastructure serveur
2924 documents trouvés, affichage des résultats 591 à 600.
< Les 10 documents précédents | Les 10 documents suivants > |
(07/03/2011 16:08:43)
Guerre des benchmarks middleware : IBM réplique à Oracle
Big Blue vient de publier de nouveaux tests SPECjEnterprise 2010, qui, selon elle, « démontrent que les entreprises utilisant le middleware IBM WebSphere sur des serveurs Power 7 profitent du meilleur rapport prix/performance de l'industrie. » La firme d'Armonk affirme également avoir « démontré que ses performances étaient de 76 % plus élevées que la moyenne de celles obtenues par d'Oracle. » De plus, IBM a ouvert un site web qui attaque Oracle de front sur un certain nombre de points. «Est-ce que vous ne payez pas trop cher pour Oracle Database ? Réponse. Oui, vous payez trop cher pour votre base de données Oracle. » Pour l'instant, Oracle n'a pas fait de commentaire à ce sujet.
Cet affrontement au corps à corps n'est pas nouveau dans l'industrie du logiciel, et se produit même quand Oracle et IBM se retrouvent côte à côte sur d'autres fronts. Mais ce différend reflète un important problème de fond. En septembre 2009, le Transaction Processing Performance Council (TPC) avait infligé à Oracle une amende de 10 000 dollars pour une publicité parue dans le Wall Street Journal, prétendant qu'une machine utilisant les logiciels d'Oracle était plus rapide qu'une solution IBM équivalente. Pour soutenir son propos, Oracle avait prétendu utiliser des tests de performance réalisés par le TPC. A l'époque, Oracle avait prétendu qu'elle livrerait ses propres tests le 14 octobre suivant. Oracle et IBM sont tous deux membres du TPC, un organisme chargé d'« élaborer des tests de performances pour les systèmes informatiques transactionnels et de diffuser des informations objectives et vérifiables, à l'industrie. » Après la plainte d'IBM, le TPC avait estimé que la demande d'Oracle « n'était pas recevable, parce que le vendeur ne disposait pas de données de ce genre de la part du TPC au moment de la publication, » et avait ordonné le retrait des publicités. Il ne fait aucun doute que cet incident a influencé la teneur de la campagne actuelle menée par IBM contre Oracle, qui, depuis son acquisition de Sun Microsystems et son entrée sur le marché des systèmes intégrés, est devenu un des principaux concurrents de Big Blue.
Des benchmarks beaucoup trop pointus
« IBM a été très choquée par la campagne de communication menée par Oracle, son marketing mensonger et ses messages négatifs, » a déclaré John Rymer, analyste de Forrester Research. « Oracle a blessé IBM, et maintenant, IBM réplique. » Quant aux benchmarks brandis par chaque vendeur, ils ne méritent même pas qu'on y prête attention, estime l'analyste. « Il est tout simplement impossible de savoir comment les transposer dans des applications réelles, » commente-t-il. Comme des Formule 1 spécialement configurées pour chaque circuit, les serveurs utilisés pour les benchmarks du TPC sont en effet calibrés pour réaliser les meilleures performances.
En attendant, Oracle et IBM doivent tous deux affronter de sérieux défis dans le domaine du middleware. « Pour IBM, il s'agit d'intégrer l'ensemble de ses acquisitions dans le middleware et de créer une solution simple et bon marché que tout le monde souhaitera choisir, » a déclaré Ray Wang, PDG de Constellation Research. « C'est sur ce terrain que les deux acteurs s'affrontent aujourd'hui, pour montrer qu'ils vont vers cette intégration. Oracle a simplement racheté BEA Systems pour construire ses solutions. Et ce n'est pas non plus facile à réaliser. »
Illustration : Benchmarks IBM, crédit D.R.
Avec le ray tracing, Intel place le jeu sur mobile dans le cloud
Le fondeur est en train de mettre au point des puces et de réécrire des jeux pour la technologie du ray tracing. Celle-ci pourrait faire entrer le gaming dans le cloud, comme l'a indiqué Intel. Dans un futur proche, dès que ces nouvelles puces seront prêtes, les utilisateurs d'appareils mobiles pourront jouer à des jeux complexes en 3D, hébergés dans un cloud. Certes, il faudra une capacité élevée de calcul pour profiter du ray tracing en temps réel. Celle-ci sera fournie par des clusters de serveurs puissants, équipés de plusieurs processeurs, et par des unités de traitement vectoriel capables d'effectuer des tâches en parallèle, afin de délivrer des images précises aux tablettes et aux smartphones.
Pour l'instant, les appareils mobiles sont utilisés de manière occasionnelle pour les jeux, mais le hardware, de plus en plus sophistiqué, de ces appareils, est capable de traiter des graphiques en haute résolution. Par exemple, les capacités graphiques de l'iPad 2 d'Apple, annoncé la semaine dernière, ont été très améliorées comparativement à la version précédente. Désormais, l'Optimus 2X de LG est capable de lire de la vidéo en 1080p. De même, lors du dernier Mobile World Congress, certains ont déjà pu voir tourner un jeu Xbox 360 sur une tablette intégrant la future puce mobile de Nvidia, Kal-El. Daniel Pohl, un chercheur d'Intel, a indiqué dans un post que le fondeur avait réécrit Wolfenstein, l'un des premiers jeux de tir subjectif, pour la technologie ray-tracing, et précisé qu'il était très réaliste. « Dans une cour, Il y a une voiture rouge dont la peinture est très brillante, avec un effet de miroir sur la carrosserie. Avec le ray-tracing, il est possible d'obtenir un très bon rendu de cette scène, » a déclaré Daniel Pohl. « Avec le ray tracing les joueurs pourront par exemple voir les reflets sur la carrosserie de la voiture et repérer d'éventuels tireurs, » a ajouté le chercheur. Le ray tracing ajoutera également plus de détails visuels, les ombres notamment, de manière à renforcer les effets 3D dans un jeu.
Une importante capacité de calcul
Les écrans actuels sont capables d'afficher en millions de pixels, et chaque pixel reçoit un rayon lumineux pour être éclairé. « C'est un défi en terme de puissance de calcul nécessaire, » a déclaré John Owens, professeur agrégé en génie électrique et informatique à l'Université Davis de Californie. Il faut projeter des milliards de rayons en continu sur les objets afin de restituer avec précision les actions et l'univers changeant à l'intérieur d'un jeu. La modélisation est encore plus complexe s'il y a beaucoup d'objets en mouvement et une grande diversité de scènes dans le jeu. « La raison pour laquelle les cartes graphiques classiques ou la plupart des jeux ne sont pas conçus pour le ray tracing, c'est parce que cela demande des capacités de calcul très difficiles à fournir, » a déclaré le professeur.
Intel tente de relever ce défi avec sa puce serveur expérimentale, du nom de Knights Ferry, basée sur la nouvelle architecture MIC (many integrated core) d'Intel. Le processeur, annoncé en mai 2010 lors de l'International Supercomputing Conference, a été conçu pour le calcul graphique intensif et l'informatique haute performance. Knights Ferry comporte 32 coeurs x86, dotés chacun d'une unité de traitement vectoriel de 512-bit. Les core tournent à une vitesse d'horloge de 1,2 GHz, et la puce prend en charge OpenCL et DirectX de Microsoft, deux frameworks incluant des outils de programmation parallèle. Knights Ferry intègre également des caractéristiques de la puce Larrabee, qui devait être le premier processeur graphique d'Intel, et abandonné par le fondeur. En 2009, Intel avait même fait la démonstration des capacités ray tracing de cette puce lors de l'Intel Developer Forum dans un jeu intitulé Enemy Territory: Quake Wars, mais le public n'avait pas été convaincu par les performances.
Intel a annoncé que le premier processeur basé sur l'architecture MIC, sera la puce Knights Corner, laquelle comprendra plus de 50 coeurs. Selon les déclarations faites par un responsable d'Intel sur un blog en février, cette première puce, qui apportera le ray tracing aux jeux sur mobiles, devrait être lancée au cours du premier semestre 2012.
La récap IT de la semaine : iPad 2, Cebit 2011 et autres...
Du suspens, de la compétition, du show, des questionnements, sont autant de qualificatifs pour résumer cette semaine qui a vu le lancement de l'iPad 2 et l'inauguration de la grande messe de l'informatique à Hanovre le Cebit. Et c'est par ce dernier que nous commencerons. En effet, difficile dans les allées du salon de ne pas constater la course de vitesse des manufacturiers asiatiques sur les tablettes. De toutes les tailles (7, 9 ou 10 '') avec n'importe quel OS (Android, Windows 7, Linux), les ardoises « no name » s'affichaient en attendant le constructeur qui allait leur insuffler ce petit supplément d'âme et de magie.
D'âme, il en a été question lors de la fameuse présentation de l'iPad 2. Steve Jobs, bien qu'en arrêt maladie, a tenu en personne à assurer le show d'un produit éminemment stratégique. Mais au-delà des caractéristiques de la tablette d'Apple, c'est bien la pugnacité et le charisme de son PDG qui donne ce sel particulier à la success story de la firme de Cupertino. Les puristes regretteront l'absence de telles ou telles technologies ou support sur l'iPad 2, la rapprochant de l'évolution 3G vers le 3GS. Il y aura encore certainement des évolutions à venir, le charme n'est donc pas près d'être rompu.
Le cloud et autres...
En dehors des tablettes, le cloud demeure une tendance inexorable dans l'IT. De Software AG à Java en passant par SAP, Google, Intel, Juniper et la Chancelière Allemande, l'informatique en nuage fascine et inquiète en même temps. Angela Merkel a ainsi rappelé que cette transformation devait absolument s'accompagner d'outils de sécurité forts.
L'activité économique a été aussi importante cette semaine avec de belles acquisitions. Ainsi Facebook s'est offert un spécialiste de la messagerie instantanée mobile et Teradata acquiert Aster Data pour l'analyse des « Big Data ». Pour faire face à ces évolutions, les sociétés de conseils changent leur façon de travailler au risque de bousculer les habitudes de leurs collaborateurs.
A la semaine prochaine...
Juniper mise sur le réseau pour le cloud et la mobilité
Juniper Networks a confirmé aux analystes financiers la prévision d'une croissance annuelle de 20% pour son chiffre d'affaires sur le long terme. La société reste focalisée uniquement sur les réseaux et croit qu'elle peut continuer à prendre des parts de marché à ses concurrents. Et ce en raison de l'évolution des architectures tirées par l'explosion du trafic de données au sein des entreprises et chez les opérateurs, a déclaré le directeur général, Kevin Johnson, lors de la réunion annuelle de Juniper avec les analystes à San Francisco.
Le constructeur a débuté cette conférence en présentant la série PTX, une plate-forme à destination des fournisseurs de services, qui combine la commutation de paquets et des composants de réseau optique. Ceci fait suite à l'annonce récente de QFabric, une nouvelle architecture conçue pour réduire la brique « réseaux » des datacenters à un seul commutateur logique. La simplification des réseaux est au coeur de la stratégie globale de Juniper, visant à la fois l'extension et la réduction des coûts des réseaux. Le cloud computing et la mobilité sont les principaux moteurs de cette demande de rénovation des réseaux, a dit Kevin Johnson. Les opérateurs et les entreprises ont besoin de faire évoluer leurs réseaux et donc de disposer d'architectures plus simples. Aujourd'hui, le modèle consiste plutôt à déployer une multiplicité d'équipements souligne le dirigeant et d'ajouter « l'approche traditionnelle dans les réseaux n'est pas durable, d'ailleurs l'industrie a été victime de la complexité issue de cet héritage. »
Un fournisseur de services qui souscrit à ce point de vue est l'opérateur japonais NTT Communications, qui au cours des deux dernières années a vu le trafic sur son réseau fédérateur Internet trans-Pacifique passer de 180 Gbt/s à 450 Gbt/s. Il s'attend même à ce que ce débit évolue à 600 Gbt/s d'ici la fin de cette année, a déclaré Kempei Fukuda, directeur du réseau mondial de NTT. L'opérateur prévoit de passer son trafic de coeur de réseau vers une architecture convergente de type PTX au cours des prochaines années, précise le responsable nippon.
Une stratégie de pure player du réseau
Mark Sue, analyste chez RBC Capital Markets estime que Juniper peut probablement atteindre ses prévisions de croissance sur le long terme. La société a annoncé une progression de 23% de son chiffre d'affaires en 2010. Une variable clé sera de savoir en combien de temps Juniper va imposer QFabric et les produits PTX, s'interroge l'analyste. La commercialisation des produits est prévue respectivement pour le troisième trimestre de cette année et le premier trimestre de 2012. Mark Sue estime aussi que la société devra élargir son marché adressable avec d'autres produits.
Kevin Johnson a minimisé la vulnérabilité de Juniper à la faible marge des produits réseaux comme cela a été le cas aussi pour Cisco Systems en raison de la popularité de certains commutateurs plus abordables. John Chambers, PDG de Cisco a d'ailleurs qualifié cette découverte de désagréable. Juniper souhaite mettre l'accent sur les commutateurs innovants à valeur ajoutée plutôt que ceux meilleurs marchés. A la différence de son concurrent qui a élargi son champ d'application vers l'électronique grand public et les serveurs, Juniper souhaite rester un pure player du réseau. Même si son dernier processeur Junos Express est considéré comme très puissant et qu'il pourrait équiper des serveurs, la société n'a actuellement aucun plan pour vendre des systèmes de calcul ou de stockage, précise Pradeep Sindhu, vice-président, directeur technique et fondateur de Juniper. Il préfère travailler sur les datacenters à travers sa technologie sur les réseaux plutôt que sur les serveurs, car en évoluant, le réseau joue un rôle plus important dans la performance des centres de calcul.
Aller sur les autres briques du datacenter risquerait aussi de froisser les partenaires de Juniper, tels que IBM, Dell et NetApp, qui aident à vendre les équipements réseaux, conclut l'analyste Mark Sue.
Illustration: Kevin Johnson, PDG de Juniper
Crédit Photo: D.R
(...)(04/03/2011 11:09:09)
L'iPhone 5 intégrerait une puce double coeur A5
Selon les analystes, l'adoption d'une puce A5 double coeur dans l'iPhone 5 permettrait d'améliorer grandement les performances graphiques et les performances des applications, tout en préservant la vie de la batterie. Toujours d'après les analystes, le processeur A5, annoncé par Apple en même temps que le lancement de l'iPad 2, contribuerait non seulement à améliorer la qualité du système de vidéoconférence FaceTime, mais aussi les capacités de jeux de l'iPhone, ce qui pourrait même lui permettre de rivaliser avec les jeux des consoles portables. « Avec cette puce, le smartphone d'Apple pourrait faire tourner des applications nécessitant une puissance de calcul importante, en photo et en vidéo notamment, » a déclaré Nathan Brookwood, analyste principal chez Insight 64. « Ces applications demandent plus de puissance que celle fournie par des processeurs mono coeur. »
La puce A5, conçue par Apple sur la base d'une architecture ARM, possède deux coeurs cadencés à 1 GHz, contre un seul à 1Ghz pour le processeur A4, utilisé dans la première version de l'iPad et dans l'iPhone 4 actuel. Selon Apple, comparée à l'A4, la puce A5 permet de doubler la performance du processeur et de multiplier par 9 la puissance de calcul graphique. Pour l'instant, l'entreprise n'a annoncé aucune prochaine version pour l'iPhone, ni communiqué sur ses éventuelles spécifications, mais, depuis la sortie du premier iPhone en 2007, Apple a mis, tous les ans, en milieu d'année, un nouveau modèle de smartphone sur le marché. L'A5 pourrait accélérer « de manière importante toutes les opérations réalisées tous les jours par les possesseurs d'iPhone, comme naviguer sur Internet, envoyer des emails et gérer le multitâche, » a déclaré Bob Mansfield, vice-président hardware chez Apple, dans une vidéo publiée sur le site web de l'entreprise.
Des smartphones déjà équipés de puce ARM double coeur
Selon Jack Gold, analyste principal chez J. Gold Associates, l'amélioration des performances graphiques pour renforcer les capacités vidéo de ses appareils, fait partie des objectifs d'Apple. « Pour faire tourner de grosses applications multimédias qui demandent de la puissance, c'est important, » dit-il. S'il sort, l'iPhone intégrant la puce A5, ne sera pas le premier smartphone dual-core. L'Atrix 4G de Motorola repose déjà sur un processeur dual-core ARM, tout en afficher une autonomie de conversation pouvant aller jusqu'à neuf heures. L'Optimus 2X de LG, disponible en pré-commande et attendu courant mars, intègre également une puce double coeur ARM. Selon Nathan Brookwood, l'A5 d'Apple pourrait également contribuer à combler le fossé existant entre les tablettes tactiles et les MacBook. Comme c'est le cas de l'Atrix de Motorola, le prochain iPhone pourrait être connecté à un dock avec écran et clavier, et être utilisé comme ordinateur portable.
Selon les analystes, l'A5 pourrait aussi se retrouver dans l'Apple TV. Apple ne détient pas une grande part du marché de la VOD, mais une puce comme l'A5 pourrait faire la différence, surtout si elle supporte la vidéo Full HD. L'actuel Apple TV, qui utilise la puce A4, peut seulement lire les vidéos en 720p. Selon le cabinet d'études iSuppli IHS, Apple a vendu près de 50 millions d'unités intégrant son processeur A4 en 2010 que l'on retrouve dans l'iPad, l'iPhone et l'Apple TV actuels. Selon les analystes, la puce A5 pourrait être basée sur l'architecture de la puce Cortex-A9 d'ARM, déjà utilisée dans la puce Tegra 2 de Nvidia. Pour Apple, la prochaine étape serait de faire une version quad-core, qui apporterait encore plus de puissance de traitement.
Pendant le dernier Mobile World Congress de Barcelone, Nvidia a annoncé une puce quad-core - nom de code Kal-El - qui, selon elle, est deux fois plus rapide pour naviguer sur Internet que la puce dual-core Tegra 2 utilisée dans la tablette Xoom de Motorola. Lors du même salon, Qualcomm a également annoncé une puce quad-core Snapdragon destinée aux appareils mobiles.
(...)(03/03/2011 16:41:27)Annuels Cegid : la mutation se poursuit vers le SaaS
Si l'éditeur lyonnais Cegid a réalisé une hausse modérée sur son chiffre d'affaires global en 2010 (+0,4% à 249,6 M€), il poursuit efficacement son évolution structurelle vers un modèle centré sur l'édition de logiciels (solutions de gestion). Ses ventes de licences ont augmenté de 12% l'an dernier, à 40,7 M€, et son activité Software as a service (SaaS) de 23%, à 16,3 M€. Cette dernière se répartit à parts égales entre TPE, d'un côté, et moyennes et grandes entreprises de l'autre. Les ventes à l'international, qui reposent sur les solutions Retail, ont également progressé sensiblement (+35%). Pour Jean-Michel Aulas (en photo), PDG et fondateur de la société, il s'agit de bons résultats, « plutôt très bons même dans ce contexte post-crise ». Il reconnaît néanmoins que « le métier reste difficile ».
Sur le plan capitalistique, le schéma reste stable avec la présence de Groupama au capital, et sur le plan stratégique, « nous sommes dans un modèle éditeur mis en oeuvre au cours des cinq dernières années, sous l'impulsion de Patrick Bertrand [directeur général], souligne Jean-Michel Aulas. Ce modèle s'est affiné et continue à produire des résultats positifs et récurrents, mais il y a eu vraiment un important travail au sein de la société ».
Jean-Michel Aulas, PDG de Cegid, lors de la présentation des résultats, le 3 mars 2011 à Paris.
Avant l'an 2000, les ventes de matériel représentaient encore 50% du chiffre d'affaires de Cegid, contre seulement 13% aujourd'hui. Entre 2009 et 2010, le CA de l'activité édition a progressé de 6% et augmenté son poids de 61 à 64% du CA total (87% en incluant les services associés). Ces mutations ont requis des investissements importants. Entre R&D, développements sur le SaaS et à l'international, organisation et croissance externe, Cegid a engagé 38 M€.
Son activité SaaS compte 40 000 utilisateurs, parmi lesquels 12 000 TPE et 350 moyens et grands comptes. « Cela représente notamment 220 000 bulletins de paie par mois, 120 000 connexions par mois dans le Retail [points de vente] et 240 000 télédéclarations », donne en exemple Patrick Bertrand. Il ajoute que ces solutions intéressent de plus en plus les collectivités et établissements publics.
Patrick Bertrand, DG de Cegid
Cegid se développe dans le secteur public
Pour 2011, Patrick Bertrand ne souhaite pas donner de prévisions de résultats. « Le dirigeant d'entreprise que je suis sent bien que la confiance n'est pas revenue. On sent une incroyable volatilité, on se raccroche au carnet de commandes ». Les deux premiers mois ont été bons néanmoins et jusqu'à présent, les éditeurs de logiciels ont en général plutôt bien traversé la crise.
Parmi les activités qui devraient soutenir la croissance de Cegid cette année, Patrick Bertrand cite les solutions de paie et de GRH (gestion des ressources humaines). « Il y a une prise de conscience des groupes qu'il n'est pas nécessaire d'aller chercher des produits trop lourds ». Le directeur général pense aussi que sa société va « faire un beau parcours sur la partie industrie, tous secteurs confondus » (en septembre, un recrutement a été effectué pour piloter la stratégie du marché manufacturing). Avec l'offre SaaS, il y a par ailleurs une forte progression en perspective sur la partie comptable, notamment dans le monde agricole (l'éditeur a conquis 25% des utilisateurs dans ce secteur). Enfin, Cegid devrait se renforcer dans le secteur public. Dans ce domaine, il a racheté Visa Informatique en décembre et réalisé 12 à 14% de croissance sur l'année. Il vise un chiffre d'affaires de 20 M€. « Nous espérons aussi une croissance sur le marché des TPE où les experts comptables sont prescripteurs », complète Jean-Michel Aulas. La profession comptable représente 25 à 30% du CA de l'éditeur.
En 2010, outre Visa Informatique, Cegid a racheté deux équipes de trois personnes, l'une spécialisée sur la gestion des services professionnels, l'autre sur les produits destinés aux associations (Innov'Adhoc/Atalante). Ces trois acquisitions représentent un chiffre d'affaires de 7 M€. En matière de croissance externe, l'éditeur examine actuellement une dizaine de dossiers. Il s'intéresse notamment à des sociétés engagées dans le Retail, plutôt pour soutenir son développement à l'international. Mais il étudie aussi des dossiers dans l'industrie, la profession comptable, la finance, la RH et la paie.
En 2010, le résultat net (part du groupe) de Cegid s'est élevé à 19,3 M€ (+7,9%). Le résultat avant impôts a augmenté de 22,2% et le résultat opérationnel de 16,1%, à 30,8 M€.
Illustration : Jean-Michel Aulas, PDG de Cegid, le 3 mars à Paris lors de la présentation des résultats à la presse (crédit : MG)
CA : Chiffre d'affaires (...)
La haute densité va se renforcer dans les datacenters selon le Gartner
Le Gartner estime qu'une zone à haute densité nécessite une énergie supérieure à 10 kW par rack. Or, les datacenter construits depuis cinq ans ont été conçus pour distribuer 2 kilowatts (kW) à 4 kW par rack. Avec l'utilisation croissante des systèmes de lame haute densité, l'énergie des datacenter n'est plus suffisante pour équilibrer la puissance et les exigences de refroidissement des différents équipements informatiques (serveurs, stockage et mise en réseau des boîtes) réunis dans un même centre de données physiques.
Une zone de haute densité nécessite effectivement des refroidissements supplémentaires. Rakesh Kumar, vice-président recherche chez Gartner, souligne que si le bâtiment du datacenter n'évolue pas dans le temps, tous les systèmes informatiques à l'intérieur ne cessent de le faire. C'est l'équilibrage entre tous ces changements qui fait la complexité du sujet. Garner conseille doncaux entreprises de développer une zone à forte densité suffisamment grande pour accueillir des capacités supplémentaires, normalement de 20 à 25 pour cent de l'espace plancher.
Toutefois, les utilisateurs restent encore sceptiques note le Gartner. Ils restent incertains sur la possibilité d'obtenir une flexibilité dans la prévision des capacités nécessaires et sur les pièges potentiels de la haute densité. «Les zones à haute densité sont de loin la meilleure façon de gérer les différences dans les changements du cycle de vie des structures des bâtiments des centres de données, leurs équipements électromécaniques et autres », a pourtant souligné Rakesh Kumar.
Cebit 2011 : SAP crée des solutions OnDemand avec ses clients
Il y a deux ans, SAP a embauché John Wookey pour piloter sa stratégie « on-demand » en direction des grandes entreprises. Sa mission consistait à mettre en place un catalogue de solutions en ligne qui permettrait aux clients de la Business Suite d'ajouter, de façon flexible, des fonctionnalités complémentaires à leur système de gestion. Deux offres de ce type ont déjà été livrées (Carbon Impact, pour calculer l'empreinte carbone, et Sourcing OnDemand, pour gérer les sources d'approvisionnement et les achats stratégiques). Une troisième vient de s'y ajouter, annoncée à l'occasion du Cebit de Hanovre. Il s'agit de Sales OnDemand, une application apportant aux équipes de vente un cadre pour collaborer autour de leurs opportunités commerciales.
Cette solution en ligne présente la particularité d'avoir été développée sur la plateforme hébergeant Business ByDesign, l'application SaaS pour PME. C'est la première du genre chez SAP. Elle inaugure une nouvelle catégorie d'applications que l'éditeur met au point avec la participation de ses clients. L'objectif qu'affiche l'éditeur est de concevoir des interfaces et des enchaînements fonctionnels collant au plus près des souhaits des utilisateurs. SAP souligne aussi sa volonté de faciliter le partage d'informations, en particulier à l'aide d'outils empruntés aux médias sociaux(*), et de favoriser la mobilité ainsi que l'ont illustré les démonstrations faites au Cebit de Sales OnDemand, déroulées sur la tablette iPad d'Apple.
De l'application ciblant le dirigeant jusqu'à l'usage de masse
Sur le même modèle, d'autres logiciels seront annoncés au cours de l'année, chacun ayant vocation à s'utiliser sur des terminaux mobiles et à s'intégrer aux déploiements « on premise » de la Business Suite, dans le cadre d'un processus métier bien défini. Pour les créer, SAP interroge les entreprises très en amont sur les fonctions qui leur manquent et la façon dont elles voudraient pouvoir y accéder et les manipuler, explique notamment Thorsten Stephan, vice président, responsable des applications mobiles. Il cite en exemple une solution de gestion des notes de frais qui proposerait à son utilisateur de photographier sa facture de restaurant, d'y ajouter vocalement le nom des personnes invitées, avant d'expédier le tout vers la Business Suite. « Cela doit être très facile à utiliser », insiste Thorsten Stephan en rappelant que la puissance du terminal ne limite plus, désormais, les fonctionnalités de l'application, comme ce pouvait être le cas avec les logiciels sur PC. « La cible des utilisateurs mobiles est très large : cadres dirigeants, utilisateurs de base, techniciens sur le terrain et jusqu'aux consommateurs [dans le domaine de la grande distribution, notamment]. Nous pouvons maintenant concevoir des applications destinées à un usage de masse ».
Illustration : Démonstration de l'application Sales OnDemand de SAP
(*) Dans cette catégorie d'outils, l'éditeur Salesforce.com, spécialisé sur les logiciels en ligne destinés aux commerciaux, a lancé il y a quelques mois l'application Chatter, dotée d'une interface à la Facebook, qui semble avoir rencontré un certain succès auprès de ses clients. Microsoft de son côté vient de lancer en France la version hébergée de sa gestion de la relation client, Dynamics CRM Online, qui s'appuie beaucoup sur Outlook.
< Les 10 documents précédents | Les 10 documents suivants > |