Flux RSS
Décisionnel
626 documents trouvés, affichage des résultats 91 à 100.
< Les 10 documents précédents | Les 10 documents suivants > |
(30/06/2011 10:55:46)
Yahoo crée une société dédiée à Hadoop
Yahoo et la société de capital risque Benchmark Capital ont fondé une entreprise chargée de travailler sur Hadoop, le framework Open Source qui accélère le traitement de volumes très important de données. Baptisée Hortonworks, la nouvelle entité sera constituée d'une équipe d'ingénieurs qui ont contribué au développement d'Hadoop Apache, un projet dont Yahoo a été le principal soutien. La société, qui ouvrira ses portes en juillet prochain, comptera une vingtaine d'employés. « Hortonworks permettra d'accélérer le développement de Hadoop et rendra son installation, sa gestion et son utilisation plus aisée dans les entreprises », a déclaré Jay Rossiter, vice-président de Yahoo Cloud Platform.
Yahoo, qui utilise abondamment Hadoop pour servir ses annonces publicitaires et son contenu, a beaucoup d'intérêts à le voir se développer. « Nous sommes à la fois investisseur, partenaire et utilisateur de Hortonworks », s'est également réjoui Jay Rossiter.
Eric Baldeschwieler, ancien vice-président de l'ingénierie d'Hadoop chez Yahoo, prendra les commandes d'Hortonworks. Il sera chargé de renforcer la communauté Open Source autour d'Hadoop, d'établir des programmes de partenariat et de trouver de nouveaux clients.
Illustration : Jay Rossiter, vice-président de Yahoo Cloud Platform. Crédit photo : D.R.
(...)
Oracle : ventes de logiciels en hausse, matériel en baisse au 4e trimestre
Confortée par la croissance de son activité logicielle, Oracle a présenté les résultats de son quatrième trimestre fiscal 2011 clos le 31 mai montrant une hausse de 36% de son bénéfice net à 3,2 milliards de dollars par rapport à l'exercice fiscal précédent. Le total du chiffre d'affaires pour le trimestre a augmenté de 13% à 10,8 milliards de dollars. Les ventes de licences logicielles, qui sont considérées comme un indicateur clé de la bonne santé du marché ont augmenté de 19% pour atteindre 3,7 milliards de dollars. En revanche, le chiffre d'affaires de la branche matérielle a diminué de 6% et s'élève à 1,2 milliard de dollars. Cette baisse sur les revenus du matériel a affecté le cours de l'action d'Oracle, hier jeudi. Celui-ci est ensuite remonté.
Sur l'ensemble de l'exercice fiscal, le bénéfice net a bondi de 39% à 8,5 milliards de dollars et le chiffre d'affaires de l'éditeur a atteint les 35,6 milliards de dollars, soit une hausse de 33%.
Safra Catz, co-présidente et directrice financière d'Oracle, a tenu à souligner dans un communiqué que la croissance des ventes de logiciels pour le quatrième trimestre avait été réalisée sans l'aide, pratiquement (ou dans une moindre mesure), des acquisitions.
Plus de 1 000 Exadata dans le monde
L'éditeur s'est résolument tourné vers le hardware avec l'intégration de Sun Microsystems. Il a livré des systèmes tels que les Exadata, des serveurs de stockage dédiés aux bases de données Oracle. « Ces systèmes ont fortement contribué à notre croissance au cours du quatrième trimestre », a pour sa part indiqué Mark Hurd, co président d'Oracle. « Aujourd'hui il existe plus de 1 000 Exadata installées dans le monde. Notre objectif est de tripler ce nombre au cours de l'exercice fiscal 2012 ».
Les Exadata sont toutefois confrontés à la concurrence d'IBM, avec sa division Netezza, et de SAP, qui a lancé HANA, son appliance d'analyse en mémoire. Les traitements « In-memory » s'effectuent en mémoire vive, ce qui dope la performance par rapport aux systèmes devant lire les données sur disques. Lors de la conférence téléphonique de commentaires des résultats, Larry Ellison, PDG d'Oracle a indiqué que son groupe prévoyait d'annoncer un accélérateur « in-memory » pour Exadata, lors de son événement annuel OpenWorld (à San Francisco, en octobre prochain), ainsi qu'un accélérateur pour les Big Data, mettant en oeuvre le framework open-source de programmation Hadoop.
« Un accélérateur in-memory peut signifier différentes choses », a estimé Curt Monash, analyste chez Monash Research «Gérer des données en mémoire en étant relié à un système de gestion reposant sur des disques est un peu plus difficile que de simplement gérer des données en mémoire ». Le projet d'Oracle concernant un produit reposant sur Hadoop est peu surprenant compte tenu de l'attention généralisée manifestée pour cette technologie ces derniers temps par les acteurs du datawarehouse et du décisionnel. En attendant, les ventes d'Exadata et du serveur Exalogic se portent à merveille, a affirmé Mark Hurd durant la conférence téléphonique. Le lancement d'Exalogic se déroule même encore mieux que celui d'Exadata.
Matériel: le revenu du support augmente
Alors que les ventes de matériels ont baissé sur le trimestre, les revenus du support associés ont augmenté, à la faveur de meilleurs taux de souscription enregistrés sur les nouvelles ventes, a expliqué le co-président. Oracle vend aussi moins de systèmes avec des marges plus élevées. C'est, selon lui, fondamental pour disposer d'une activité matérielle solide.
Illustration : Safra Catz, directrice financière d'Oracle et co-présidente, sur OpenWorld 2010 (crédit : MG)[[page]]
« Oracle se débrouille bien pour pousser du matériel vers sa base installée de clients, remarque l'analyste Ray Wang, PDG de Constellation Research, dans une interview accordée à nos confrères d'IDG News Service hier, juste avant l'annonce des résultats. « Cela a commencé avec Exadata et il apprend doucement à se comporter comme un fournisseur de matériel. » Pour lui, ce n'est pas une compétence facile à acquérir pour un groupe qui n'évolue pas traditionnellement sur ce terrain.
L'analyste, qui aide les acheteurs de logiciels à négocier leurs contrats avec les vendeurs, a constaté l'agitation habituelle des discounts de fin d'année [NDLR : fiscale] sur les contrats du quatrième trimestre réalisés par Oracle. Mais celle-ci n'a toutefois pas été aussi forte que l'an dernier.« Sans aucun doute, Oracle progresse du côté de son activité applications, mais à l'instar des autres éditeurs, cette croissance vient des solutions complémentaires, pas des applications centrées sur l'ERP en soi ».
Quels clients vont aller vers Fusion Applications ?
Après une longue attente, Oracle est finalement prêt pour livre sa nouvelle génération Fusion Applications, supposée combiner le meilleur de chacune des lignes de produits que l'éditeur a acquises. Les clients appréhendent de différentes façons cette offre, selon leurs situations particulières, note Ray Wang. Les clients Oracle « purs et durs » qui ont déjà lourdement investi dans les technologies de la firme au logo rouge migrent pour la plupart vers la E-Business Suite 12, puis se dirigeront vers Fusion Applications. Tandis que les clients utilisant des logiciels rachetés par Oracle adoptent plutôt une attitude attentiste, de type « wait and see ». Il y a aussi des utilisateurs de longue date, clients depuis les années 90, qui jettent un oeil vers SAP, ajoute Ray Wang.
Un certain nombre de clients Fusion Applications sont désormais en production, a indiqué Larry Ellison au cours de la conférence téléphonique. La suite logicielle sera disponible dans l'infrastructure cloud d'Oracle de même qu'en clouds privés, a-t-il ajouté. Le cloud d'Oracle offrira aux clients un niveau plus élevé de sécurité que ceux des concurrents tels que Salesforce.com, n'a-t-il pas craint d'affirmer.
Par ailleurs, Oracle prévoit d'embaucher davantage de commerciaux et modifie la façon dont ces forces de vente sont réparties, a indiqué Mark Hurd. « Il devrait y avoir un vendeur pour vingt clients, a-t-il précisé. Nous pensons que ce commercial a l'opportunité de vendre autant de logiciels qu'à cinq clients ». (...)
IBM déploie des appliances analytiques Netezza haute capacité
Cette appliance haute capacité (jusqu'à 10 Po de traitement en quelques minutes) est destinée aux secteurs des banques, des télécommunications et à toutes autres entreprises générant toujours plus de données et qui souhaitent mieux en comprendre la nature, soit pour en tirer un avantage concurrentiel, soit pour améliorer ses services ou encore pour profiter de nouvelles opportunités commerciales.
Comparées à des produits concurrents, en particulier l'Exadata d'Oracle, les appliances de Netezza, qui seront proposées en plusieurs configurations, se positionnent comme des systèmes plus économiques et plus faciles à installer. « Kelley Blue Book (KBB), un client de Netezza, doit évaluer la nouvelle appliance, » a déclaré Dan Ingle, vice-président et spécialiste des questions analytiques de cette entreprise qui informe les consommateurs sur les prix des véhicules neufs et d'occasion aux acheteurs potentiels. A l'heure actuelle, les statisticiens de KBB utilisent une machine Netezza TwinFin 6 avec un logiciel analytique de SAS Institute pour mouliner des quantités énormes de données relatives aux prix, un travail rendu encore plus complexe du fait que les données sur l'automobile ne sont « pas du tout standardisées », comme l'a précisé le vice-président.
Economie et simplicité
Les prix des véhicules proviennent en effet d'une grande variété de sources, « une grande partie des données étant même tirées de transactions aux enchères, », a-t-il déclaré. « Or, pour faire une analyse des prix et des prévisions pertinentes pour un véhicule donné, il faut plus que l'année, la marque et le modèle, » a-t-il encore déclaré. Les données provenant des ventes aux enchères peuvent ne pas tenir compte d'options et autres variantes qu'une voiture particulière peut offrir et susceptibles d'affecter le prix du marché. « C'est le cas, en particulier, des camionnettes, dont la configuration varie très fortement d'un modèle à l'autre, et des détails cruciaux, comme la longueur, ne sont pas inclus dans le VIN (Vehicle Identification Number), » a-t-il expliqué.
KBB s'intéresse également aux grandes quantités de données générées par les visiteurs de ses sites internet. L'an dernier, AutoTrader.com a racheté KBB. « A eux deux, ces sites drainent plus de deux acheteurs d'automobiles en ligne sur trois, » selon Dan Ingle. « La majorité de ces données de visite résident désormais dans le système Adobe Omniture de KBB, » a t-il ajouté. « KBB voudrait décortiquer ces informations afin de trouver de nouvelles façon de les monétiser, mais prévoit qu'elle aura besoin de plus de place, ce que lui apportera l'appliance de Netezza, » a déclaré le vice-président de la division. « Sans doute, au cours de l'année qui vient, nous allons dépasser les capacités de TwinFin. Mais nous ferons en sorte de ne pas être débordé, » a déclaré Dan Ingle.
[[page]]
KBB a migré vers Netezza après être passé par la pile BI (business intelligence) de Microsoft. « KBB a aussi évalué Exadata d'Oracle avant de s'installer sur Netezza, » a ajouté le vice-président. « Comparativement, les performances d'Exadata étaient similaires à celles offertes par Netezza, mais cette solution l'a emporté en raison de son faible coût et de sa facilité d'installation et de maintenance, » a t-il déclaré. « Le battage médiatique fait autour de la simplicité de l'utilisation de la solution de Netezza s'est avéré juste. Nous ne mobilisons même pas la moitié du temps d'un salarié à temps plein pour administrer l'appliance,» a déclaré Dan Ingle.
Un marché concurrentiel
Alors que Netezza donne semble-t-il entière satisfaction à ses clients, l'éditeur doit se battre pour imposer ses produits dans un marché toujours plus concurrentiel, face aux solutions similaires vendues par Oracle, EMC,Teradata et Hewlett-Packard, qui a récemment acheté le fournisseur d'entreposage de données Vertica. Jim Baum, le PDG de Netezza, en a convenu lors d'une interview au cours de laquelle il n'a pu s'empêcher d'égratigner HP en particulier. « La pression concurrentielle est très forte, » a-t-il déclaré. « Mais j'ai franchement l'impression que HP a complètement loupé le coche dans le domaine du data warehouse et de l'analytique. »
Selon lui, le rachat de Vertica est « intéressant, » mais « HP n'a pas d'identité assez forte en tant qu'éditeur de logiciels analytiques, » a t-il ajouté. « Ce n'est pas comme dire : j'ai une base de données. Je peux associer cette offre avec un hardware. Et voici l'appliance en question. Ce n'est pas aussi simple que ça. »
Alors que « jour après jour » Netezza est en concurrence avec Oracle, Exadata « fonctionne bien pour certaines charges de travail, mais pas les charges de travail analytiques que nous ciblons, » a t-il estimé. « Cela dit, Oracle représente une force concurrentielle avec laquelle il faut compter, il n'y a aucun doute à ce sujet. Le fait d'être maintenant dans le giron d'IBM est un grand avantage, » a ajouté Jim Baum. « Nous avons beaucoup plus de poids derrière nous.
HP veut rendre l'industrie énergétique plus intelligente
C'est sur les rives du Bosphore, à Istanbul, que plusieurs responsables d'HP ont présenté la stratégie du constructeur en ce qui concerne le smart grid. « Il y a une réelle prise de conscience de la part des industries de l'énergie des apports des technologies intelligentes, aussi bien sur le plan de la distribution à l'utilisateur final qu'en matière de production », a souligné Christian Keller, vice-président EMEA pour les industries énergétiques et de la distribution. Si ce dernier n'explique pas la part que représente cette activité au sein des résultats globaux d'HP, il précise que cette activité est en croissance et les projets sont nombreux en Angleterre, Allemagne, République Tchèque. Pour la France, le groupe travaille notamment avec Capgemini sur ces sujets, mais aucun nom n'a été donné.
Eviter les 7 péchés du smartgrid
Roy Pratt, CTO de la division Energy et Utilities de HP, pense que l'aventure du smart grid n'est pas un long fleuve tranquille et qu'il faut éviter certains écueils ou tout du moins tordre le cou à certaines idées reçues. Ainsi, il a décliné « 7 péchés » du smart grid, dont certains sont essentiels. En premier lieu, il est inutile de penser à ces technologies si on ne part pas dans une optique de transformation organisationnelle. Il ne s'agit pas simplement d'installer un compteur intelligent dans une maison, mais aussi de faire évoluer le système d'information du back office, de s'assurer d'un lien de communication bi-directionnel. La seconde faute est de vouloir tout implémenter d'un coup et de ne pas préparer le déploiement des différents éléments en plusieurs phases. « A chacune des étapes, qui peuvent s'étaler sur une dizaine d'années, il est nécessaire de tester et de réévaluer les besoins, car les technologies changent », souligne Roy Pratt.
Présentation Roy Pratt, CTO de la division Energy & Utilities
Autre point, ne pas miser sur des solutions homogènes qui n'existent pas, la complexité de l'écosystème du smart grid implique une hétérogénéité des acteurs. Le dirigeant mise sur une coordination en matière de standardisation pour assurer le développement du smart grid, « la collaboration est nécessaire entre partenaires, mais aussi entre concurrents (entre les différents industriels de l'énergie).
Illustration : Equipe d'HP présente à Istanbul, de gauche à droite,Pat Hillon, Roy Pratt, Christian Keller, Guiliano Di Vitantonio et Douglas Hanson
[[page]]
Dans son analyse, Roy Pratt ne s'est par contre pas attardé sur l'adoption de ces technologies par les consommateurs finaux. La question du coût des compteurs intelligents risque pourtant d'être un frein. « Il existe des solutions comme celles issues de la téléphonie mobile, avec une subvention ou l'intégration d'un coût supplémentaire dans l'abonnement mensuel ».
Business Intelligence et sécurité
A la fin de sa présentation, Roy Pratt a observé qu'il ne faut pas oublier qu'il s'agit avant tout de la data, les industries énergétiques consomment, selon HP, 50 To de données par heure. Et c'est là qu'interviennent les solutions analytiques. Guiliano Di Vitantonio, responsable marketing et partenariat pour l'activité Entreprise Information Solutions explique que la BI (Business Intelligence) s'applique sur les données issues du consommateur final, mais se développe également en amont, sur la production d'énergie. Pour lui, les outils décisionnels ont changé pour devenir une « intelligence connectée », a-t-il expliqué en donnant un exemple sur la prospection des puits de pétrole, notamment sur les plateformes off-shore. La solution baptisée Digital Oilfield Intelligence coordonne l'ensemble des informations issues des différents métiers et les données provenant des dizaines de milliers de capteurs pour optimiser l'exploration, l'extraction et la distribution des plateformes pétrolières. Le responsable indique qu'il s'appuie notamment sur l'offre Vertica capable de traiter et d'analyser des données en quantité massive.
Enfin, pour terminer ce tour d'horizon de l'expérience de HP sur l'industrie énergétique, la question de la sécurité se place au coeur de la réflexion du smart grid. L'affaire Stuxnet a été un déclencheur, car ce ver s'attaquait à des systèmes Siemens SCADA qui sont très utilisés par les industries de réseaux. Pour autant, Douglas Hanson, directeur de la division Global Energy et ressource Industries, explique que « les affaires récentes de Sony ou Sega où des données personnelles ont été volées montrent que la protection doit être pensée sur l'ensemble de l'écosystème du smart grid. » Il est donc nécessaire selon lui d'avoir une méthodologie pour appréhender la sécurité : « la menace ne vient pas nécessairement de l'extérieur, mais il faut intégrer la dimension sécurité au sein de l'entreprise ».
Au final, le smart grid progresse et séduit de plus en plus d'industriels. Il existe encore quelques réticences, mais les responsables de HP sont bien décidés à rassurer et à évangéliser les indécis.
Illustration : Equipe d'HP présente à Istanbul, de gauche à droite,Pat Hillon, Roy Pratt, Christian Keller, Guiliano Di Vitantonio et Douglas Hanson
(...)(17/06/2011 12:36:10)Sage serait en discussion avec IBM et SAP
Outre-Manche, le site Computing fait état de rumeurs de discussions entre Sage, IBM et SAP, qui lui font envisager une potentielle acquisition de l'éditeur britannique de solutions de gestion. Une source interne à Sage a confié au site d'information spécialisé dans la IT que sa société discutait à la fois avec les groupes américain et allemand, en ajoutant qu'appartenir à une structure plus importante pourrait profiter à ses activités. L'interlocuteur a confié à nos confrères anglais que Sage était dans une période de réflexion, rappelant que l'objectif était de doubler la base de clients sur cinq ans, ce qui représentait un défi important d'un point de vue organisationnel. « La structure de l'organisation nous retient et nous trouverions certainement avantage à disposer de garanties et de capacités d'investissement supérieures », cite Computing.
IBM, bien que doté d'un riche catalogue applicatif, ne possède pas encore d'applications de gestion, mais il a déjà noué des partenariats avec Sage. En revanche, l'éventuel intérêt de SAP apparaît plus étonnant. Numéro un des solutions de gestion au niveau mondial, l'éditeur allemand a jusqu'à présent procédé plutôt à des acquisitions portant sur des technologies ou des compétences métiers dont il ne disposait pas : Business Objects sur la BI, Sybase dans la mobilité et les bases de données, ou précédemment TopTier sur les portails, TopManage sur les offres PME, Highdeal sur la facturation complexe, etc.
SAP a réalisé des efforts très conséquents au cours des six ou sept dernières années pour disposer d'une offre PME crédible. Il propose aujourd'hui trois solutions sur ce marché : BusinessOne, All-in-One et Business ByDesign, application en mode SaaS (software as a service) qu'il héberge lui-même et sur laquelle il a effectué d'énormes investissements. Sage de son côté envisage essentiellement le mode SaaS sous la forme de fonctions complémentaires à son offre actuelle.
13 000 collaborateurs dans le monde dans 24 pays
Il y a deux semaines, Guy Berruyer (en photo), CEO de Sage, a fait un point sur l'activité de son groupe à l'occasion d'une web conférence annonçant la version 6.2 de l'offre ERP X3 que l'éditeur commercialise au niveau mondial. Fin mars 2011, le chiffre d'affaires semestriel de l'éditeur s'est élevé à 183,5 millions de Livres, soit une progression de 4% par rapport à la même période l'an dernier. Il avait réalisé un chiffre d'affaires de 1,4 milliard de Livres sur son exercice fiscal précédent clos fin septembre 2010 (66% de ses revenus viennent des contrats de support).
Sage se distingue de ses concurrents par la nature de son offre. Le groupe s'est constitué par rachats successifs, pays par pays, d'éditeurs locaux de logiciels de gestion (comptabilité, paie, fonctions achats/ventes/stocks...). Chaque filiale continue à développer localement les logiciels qu'elle commercialise sur son marché. Parallèlement, Sage a commencé à distribuer de façon globale certains produits, d'abord ses offres de CRM, Saleslogix, puis plus récemment l'ERP X3 racheté il y a quelques années à l'éditeur français Adonix. Avec ce produit, il compte étendre sa base installée dans les entreprises de taille moyenne d'envergure internationale.
Sage compte 6,3 millions de clients dans le monde parmi lesquels une majorité de PME et TPE. Il rassemble 13 000 collaborateurs dans 24 pays. L'an dernier, l'éditeur a réorganisé sa direction, Guy Berruyer prenant la tête du groupe en juillet 2010. En France, Antoine Henry a succédé à Pascal Houillon au poste de directeur général.
Ce ne sont pas les premières rumeurs qui circulent sur la société. Il y a quelques mois, SAP avait déjà été évoqué pour un éventuel rachat de Sage, de même que Microsoft.
Illustration : Guy Berruyer, CEO de Sage (crédit : DR) (...)
Les solutions BI Open Source s'affirment comme une alternative
Infobright a ainsi vanté les capacités de la version 4.0 de sa base de données analytique à traiter « en temps quasi réel » des données envoyées par des appareils de mesure, des infrastructures de télécommunications ou provenant d'autres sources. La récente version intègre notamment une technologie dite DomainExpert, qui permet de réduire les temps de recherche et d'optimiser les performances en « ajoutant de l'expertise à des domaines de données particuliers - comme le web, les services financiers ou les télécommunications, » selon Infobright.
Rough Query, une autre fonctionnalité de cette version, permet aux utilisateurs de chercher plus rapidement dans de grands ensembles de données. « Plutôt que d'exécuter une requête large pour trouver une réponse spécifique, Rough Query affine les résultats de manière itérative, avec des temps de réponse inférieurs à la seconde, avant même que la requête ne soit complètement exécutée, » a expliqué l'éditeur.
Infobright 4.0 intègre également un connecteur pour le framework Hadoop, celui utilisé dans le traitement de données massive et un système pour charger rapidement des ensembles de données volumineux. « Cette dernière caractéristique permet de charger jusqu'à 2 To de données à l'heure, » selon Infobright. La version finale sera disponible sous 30 jours, a confirmé l'entreprise.
Des analystes convaincus et un partenariat
Comme l'a écrit dans un blog Curt Monash, analyste chez Monash Research, dans l'annonce faite par Infobright, c'est « Rough Query qui l'a le plus impressionné. » Selon lui, « c'est l'outil idéal pour l'analyse d'investigation. » Quant aux autres caractéristiques de Infobright 4.0, elles contribuent « essentiellement à mettre le logiciel à niveau avec ses concurrents, plus grands et plus chers, » a-t-il ajouté.
De leur côté, Ingres et Jaspersoft ont annoncé avoir conclu un partenariat pour combiner la base de données analytique VectorWise d'Ingres avec le logiciel de BI (business intelligence) de Jaspersoft afin d'offrir une machine virtuelle commune. Une version de démonstration valable 30 jours est disponible gratuitement pour tester le pack. Selon Curt Monash, cette période est « suffisante pour évaluer VectorWise dans des situations très déterminées. »
Les solutions de Ingres, Jaspersoft et Infobright sont en concurrence avec des produits propriétaires, notamment ceux proposés par Oracle et IBM. Cependant, le fait que ces solutions d'analyses soient Open Source ne leur donnent pas nécessairement un avantage technologique sur les solutions rivales. Selon Curt Monash, « sur ce type de marché, le principal intérêt du logiciel sous licence libre, c'est qu'il offre accès à une licence bon marché et permet des coûts de maintenance réduits. »
SAP rénove ses outils d'analyse pour les PME
Crystal Server 2011 est l'ancien Crystal Reports Server, dont le nom a été changé parce que SAP veut « que l'on identifie spécifiquement son produit comme plate-forme de BI d'entrée de gamme, et pas seulement comme un outil destiné à produire des rapports, » a déclaré Jayne Landry, vice-présidente de SAP, Solution Management, Business Analytics and Technology. Ces produits devraient être disponibles au cours des toutes premières semaines de juillet, en même temps que Business Objects 4.0, la version de niveau entreprise des produits analytiques de SAP. « C'est un changement par rapport au calendrier antérieur, lorsque la version d'Edge arrivait 6 à 8 semaines après le lancement de la version haut de gamme », a ajouté la vice-présidente.
Crystal Server 2011 comporte de nouvelles fonctionnalités, comme l'outil Explorer chargé de « creuser » dans les ensembles de données, ou encore un outil pour la présentation de l'information. Selon une présentation de SAP, cette édition est limitée à un seul serveur et à 100 utilisateurs désignés. L'idée étant que les clients dont les besoins dépassent les fonctionnalités de produits comme Crystal Server 2011 peuvent s'orienter vers un outil plus conséquent. Edge 4.0 reprend la base de Crystal Server et l'enrichit avec d'autres fonctionnalités, comme la web Intelligence, la BI mobile et l'intégration à des applications de type Oracle E-Business Suite. Une seconde version de Edge permet d'ajouter l'intégration des données et une troisième version permet le couplage avec un logiciel de gestion des données.
Des versions attendues
Par ailleurs, toutes les versions de Edge sont limitées à un seul serveur. Pour bénéficier du support multi-serveur, d'un nombre illimité d'utilisateurs et d'autres caractéristiques, les clients sont invités à se tourner vers Business Objects 4.0. « Peu importe le niveau auquel démarre le client, son investissement est protégé, » fait valoir Jayne Landry. SAP propose une expérience utilisateur commune aux différents produits, ce qui peut faire économiser du temps et de l'argent en formation. « En outre, les rapports et autres éléments créés avec les versions antérieures du logiciel Business Objects sont compatibles avec la version 4.0, » comme le précise la vice-présidente. Les clients auront la possibilité de convertir ces rapports dans le nouveau format utilisé par SAP. « Certaines fonctionnalités peuvent ne plus être accessibles après conversion, mais les utilisateurs seront avertis auparavant, afin de prendre leur décision en conséquence, » a-t-elle ajouté.
A en croire le long fil de discussion sur le forum officieux Business Objects Board, les utilisateurs sont impatients d'avoir la version finale 4.0 de Business Objects entre les mains. Selon un message posté par un participant, « SAP a peut-être suscité de fausses attentes en créant un évènement autour du lancement de la version 4.0 » en février dernier à New York. « C'est une erreur de calcul de leur part. Mais quoiqu'il en soit, techniquement, ils ne sont pas en retard, » estime-t-il. « Même s'ils n'ont jamais vraiment annoncé de date de sortie officielle. Toutes ces dates sont le plus souvent le fait des clients qui interprètent ce que leurs disent certains employés de SAP (ce qu'ils ne devraient pas faire) », poursuit-il.
Le tarif de Business Objects Edge démarre à 12 000 dollars pour 10 utilisateurs désignés ou 19 000 dollars pour 5 licences d'accès simultanées.
Le prix de Crystal Server 2011 démarre à 2 495 dollars pour 5 utilisateurs désignés ou 6 995 dollars pour 5 licences d'accès simultanées.
La qualité des données en question sur les projets décisionnels
Selon une étude menée en France et en Allemagne par les cabinets CXP et Barc, seulement 28% des entreprises françaises et 20% des entreprises allemandes ont vraiment confiance dans la qualité des données présentes dans leurs SI. La situation est jugée, en France, comme très critique pour 30% des répondants, pour 59% plutôt critique et pour 11% seulement non critique (contre respectivement 52%, 38% et 10% en Allemagne).
La qualité médiocre des données est d'ailleurs notée comme étant la principale cause d'échec des projets de décisionnel. Si la situation est grave, le fréquent flou sur la responsabilité de la qualité des données peut en être une cause. Dans 17% des cas en France et 13% en Allemagne, personne n'est en charge de la qualité des données. A l'inverse, dans la moitié des cas, il y a co-responsabilité entre DSI et direction métier. Cette co-responsabilité pourrait être interprétée positivement comme une saine collaboration. Mais il faut aussi y voir un flou dans le « qui fait quoi exactement ». Le solde des réponses se répartie équitablement entre « équipe technique » et « équipe métier ».
Lorsque la qualité des données est gérée, c'est d'ailleurs plutôt au jour le jour, par les utilisateurs eux-mêmes (68% en Allemagne, 51% en France), moins souvent par un expert technique (54% en Allemagne, 43% en France). Un gestionnaire des données intervient dans 50% des cas en Allemagne, 78% en France. Mais la multiplicité des réponses face à cette seule question de la responsabilité de la qualité montre le flou régnant autour de la question.
Des conséquences graves mais des mesures correctives qui se font attendre
Si la qualité des données est médiocre, les conséquences sont identifiées. L'entreprise subit ainsi des augmentations de coûts (61% des réponses, autant en France qu'en Allemagne) et une baisse du chiffre d'affaires par rapport au potentiel (France : 42% ; Allemagne : 15%) mais aussi une baisse de la satisfaction tant des clients (France : 59% ; Allemagne : 47%) que des salariés (France : 46% ; Allemagne : 79%). Seuls 3% en France et 4% en Allemagne des répondants estiment que la mauvaise qualité des données n'a pas de conséquences.
Les données clients sont celles citées prioritairement comme devant faire l'objet d'un traitement d'amélioration de la qualité (pour 72% des répondants), devant les données produits (61%), les données financières (46%), celles relatives aux fournisseurs (25%) ou au personnel (18%).
On pourrait s'attendre, face à cette situation, à voir se multiplier les projets pour améliorer la qualité des données. Or, un outil de gestion de la qualité des données est déclaré comme mis en place dans 20% des cas en France (19% en Allemagne), est en cours de mise en place dans 16% des cas en France (21% en Allemagne) et envisagé dans l'année dans 16% des cas en France (18% en Allemagne). Un tel projet n'est envisagé qu'à plus long terme dans 23% des cas en France (19% en Allemagne) voire pas du tout dans 25% des cas en France (22% en Allemagne).
Un tel projet est motivé avant tout par la recherche de l'efficacité (74% en Allemagne, 73% en France) puis, en Allemagne, par la recherche de la baisse des coûts (50% des réponses, contre seulement 25% en France) et, en France, la réduction des risques (62% contre 46% en Allemagne).
Si chacun s'accorde, en tous cas, sur les bénéfices attendus, le calcul d'un ROI est des plus délicats et cela explique en grande partie les difficultés pour lancer de vrais projets globaux de qualité des données.
Le CXP recommande malgré tout d'éviter les mesures ponctuelles et d'adopter une démarche globale et continue d'amélioration de la qualité des données. Pour amorcer cette politique, il peut être utile de commencer par des projets pilotes sur des services où un ROI rapide et évident pourra être retiré de l'opération.
< Les 10 documents précédents | Les 10 documents suivants > |