Flux RSS

SGBD

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

377 documents trouvés, affichage des résultats 121 à 130.

< Les 10 documents précédentsLes 10 documents suivants >


(13/05/2010 16:51:17)

SAP rachète Sybase pour ses technologies mobiles et in-memory

A peine SAP a-t-il relevé la tête, après une difficile année 2009, qu'il remet les gaz. L'éditeur allemand de solutions de gestion vient d'annoncer la deuxième acquisition la plus importante de son histoire. Il jette cette fois son dévolu sur Sybase, éditeur de bases de données qui s'est diversifié avec succès dans les technologies mobiles. La proposition de rachat s'élève à 5,8 milliards de dollars, ce qui valorise l'action de Sybase à 65 dollars, soit un bonus de 44% comparé à sa cotation moyenne des trois derniers mois, souligne SAP. Le Californien Sybase a réalisé en 2009 un chiffre d'affaires de 1,171 milliards de dollars, en progression de 3,4% par rapport à 2008.
Le conseil d'administration de Sybase a approuvé de façon unanime la proposition qui doit maintenant être acceptée par les autorités de régulation. John Chen (photo ci-dessus), l'actuel PDG de Sybase, devrait se voir proposer d'entrer au conseil d'administration de SAP, comme cela fut offert en 2008 à Bernard Liautaud, fondateur de Business Objects. En octobre 2007, l'offre amicale sur Business Objects s'était élevée à 6,8 milliards de dollars (4,8 milliards d'euros). Entre temps, SAP a procédé à plusieurs rachats plus modestes, ciblés sur des domaines lui permettant de compléter son offre fonctionnelle ou de la renforcer(*).

Doper l'analyse décisionnelle avec le "In-memory"


L'intérêt que SAP montre aujourd'hui pour Sybase n'est pas tellement une surprise. Voilà plusieurs mois que l'éditeur de Walldorf multiplie avec le fournisseur américain des partenariats autour des technologies mobiles. Le dernier accord en date remonte à quelques mois et la mobilité constitue un des sujets phares de SAP en ce moment. Mais Sybase est d'abord un éditeur de base de données (cette division représente toujours 70% de ses revenus) avec, là aussi, une particularité qui retient l'attention de SAP. Depuis longtemps, Sybase s'est fait une spécialité des technologies « in-memory » qui permettent d'optimiser les temps de traitement dans les applications décisionnelles. Sa base Sybase IQ qui stocke les données « en colonnes » a largement fait ses preuves dans ce domaine, et l'éditeur vient aussi d'apporter le « in-memory » à sa base traditionnelle ASE (Adaptive Server Enterprise).  Or, ces fonctions intéressent au plus haut point SAP qui a réalisé ses propres développements en la matière, les a déjà mis en oeuvre dans son produit Explorer et promet depuis plusieurs mois l'arrivée d'autres avancées remarquables dans le domaine de l'analyse de données en temps réel.

Sybase restera autonome


Sybase va toutefois rester une entité autonome, sous le nom de « Sybase, an SAP Company » et SAP ne modifiera pas sa stratégie en termes de base de données vis-à-vis de ses clients. Il continuera bien évidemment à supporter les grandes bases de données qu'il exploite aujourd'hui, Oracle en tête, mais aussi DB2 et SQL Server.[[page]]« SAP n'attachera pas ses applications aux bases Sybase pour les proposer de façon préférentielle à ses clients, a bien insisté Jim Hagemann Snabe, son co-PDG responsable des développements technologiques. Nous estimons que le client doit avoir le choix ». D'ailleurs, la base ASE de Sybase (qui ne représente que 3,1% du marché mondial des SGBDR, selon Gartner) n'est pas aujourd'hui, loin s'en faut, l'un des choix préférés des clients de SAP. Toutefois, en dépit de sa modeste part de marché, ASE est particulièrement appréciée des acteurs de la finance et de la bourse.

L'Internet mobile, un marché considérable

Commentant l'axe mobilité du rachat, Vishal Sikka, directeur technique de SAP et membre du conseil d'administration de l'éditeur, a souligné que l'Internet mobile représentait un marché dix fois plus important qu'Internet sur le poste de travail. Il considère que les prochaines générations d'utilisateurs professionnels seront entièrement connectées et mobiles. « C'est une tendance qui est particulièrement évidente sur les marchés émergents tels que la Chine ou l'Inde », confirme le directeur technique en insistant sur le fait que l'acquisition de Sybase sert la stratégie de SAP sur ses trois axes principaux que sont les solutions traditionnelles (« on-premise »), les applications à la demande (dans le cloud) et les services mobiles.

Les activités mobiles de Sybase sont réparties entre deux divisions : Sybase iAnywhere et Sybase 365. La première gère les produits d'infrastructure : la base de données mobile SQL Anywhere, la solution d'administration de terminaux Afaria, iAnywhere Mobile Office pour déporter les fonctions de messagerie et Sybase unwired Platform pour déployer les applications sur les mobiles. La deuxième division, Sybase 365, propose des produits et services de messagerie pour la mise en place de services de paiement mobile dans les pays prêts à exploiter ces outils, notamment les économies en plein développement tels que la Chine et l'Inde.

(...)

(07/05/2010 12:37:36)

Spring Source, filiale de VMware acquiert Gemstone

Avec cette opération, l'éditeur de solutions de virtualisation, filiale d'EMC, obtient des technologies et une expertise sur un goulet d'étranglement du cloud computing, l'évolutivité des bases de données. « Gemstone devrait régler une part importante de ce problème. Si vous élaborez une application, qui nécessite des ressources au sein de l'entreprise ou une migration vers le cloud, elle sera amenée à évoluer sans nécessairement changer votre architecture » souligne Rod Johnson, directeur général de Spring Source.

Le produit phare de Gemstone se nomme GemFire Entreprise, un gestionnaire de cache des bases de données en mémoire pour les plate-formes distribuées. Cette technologie stocke entièrement une base au sein d'une mémoire dédiée, éliminant ou en retardant les procédures chronophages comme l'écriture ou la lecture de la base sur un disque. « Concrètement, le logiciel va pouvoir travailler sur la donnée au niveau de la couche middleware et interagir en temps réel avec des applications Java. A la fin de la journée, la donnée traitée est alors replacée dans le circuit de la base ou alors enregistrée de manière asynchrone » explique Richard Lamb, président de Gemstone.

[[page]]

Cette technologie est souvent utilisée par les communautés financières, qui utilisent des systèmes de grid computing. Le département de la défense américaine utilise également cette solution pour les commandes distribuées et les systèmes de contrôle. Au total, Gemstone apporte ses offres à 200 entreprises.

Faire sauter les verrous du cloud


Sur le marché des mémoires primaires des bases de données, plusieurs fournisseurs sont en compétition, comme Oracle avec Times Ten In-Memory Databade 11G. L'avantage de Gemstone est de fonctionner sur une architecture distribuée, plutôt qu'un dans  une structure symétrique multiprocesseurs, explique Richard Lamb. Cette approche facilite le déploiement d'applications sur les datacenters distants. En complément de cette annonce, VMware semble s'intéresser à une base de donnée, connue, sous le nom de code NoSQL, pour les porter dans le cloud. En mars dernier, il a embauché le développeur en chef de Redis Open Source, spécialiste en mémoire primaire de base de données non relationnelle. Pour autant, Paul Maritz, CEO de VMware a expliqué lors de la présentation des résultats « nous n'essayons pas d'entrer sur le marché de la base de données, nous cherchons simplement d'accompagner nos clients qui portent leurs applications dans le cloud, public ou privé ».

Gemstone est basée à Beaverton dans l'Oregon et comprend 100 salariés. Elle devrait être intégrée dans SpringSource et garder son nom. L'acquéreur s'est engagé à poursuivre les fonctions de supports sur les autres produits de Gemstone. Par contre, les conditions financières n'ont pas été dévoilées.

(...)

(05/05/2010 15:24:04)

Microsoft SQL Server 2008 R2 en détail

Le seul problème est que toutes les fonctionnalités de SQL Server 2008 R2 nécessitent la présence des dernières versions d'autres produits Microsoft, comme Windows 7, Server2008 R2, Office 2010 et SharePoint 2010. En comparaison avec son prédécesseur, SQL Server 2008 R2 est plus puissant en acceptant jusqu'à 256 processeurs logiques. L'évolution du format de compression Unicode, USC-2 apporte également une réduction de 50% des capacités de stockage pour les données Unicode.

Le logiciel bénéficie de nombreux services comme PowerPivot pour Excel et SharePoint, le Master Data Services, StreamInsight, Report Builder, des services de reporting ajoutés à SharePoint, une fonction data-tier intégré dans Visual Studio qui permet d'empaqueter les bases de données comme les parties d'une application et enfin un SQL Server Utility qui gère de multiples SQL Servers.

-Le Power Pivot permet aux utilisateurs d'importer, de manipuler, d'analyser et d'exporter des données, ainsi que de créer des rapports à partir de l'interface et du langage excel.

-Master Data Services est une fonctionnalité aidant les entreprises à créer une structure et à hiérarchiser les données. Ces dernières sont collectées au sein de plusieurs départements, des silos ou des bases de données existantes. Elles sont ensuite standardisées et structurées.

-StreamInsight est une plate-forme intégrée .Net et SQL Server pour le traitement des flux de données en parallèle, permettant de nombreuses requêtes simultanées sur les data en temps réel.

-Les capacités de data-tier (optimisation des codes sources à partir des bases de données) sont intégrées au sein de Visual Studio, pour créer plusieurs couches applicatives avec les bases de données. L'application et la base de données sont ensuite compactées comme une unité seule.

-Le SQL Server Utility installe un panneau de contrôle unique pour les différents serveurs et les bases de données.

[[page]]

Une installation facile

SQL Server 2008 R2 est beaucoup plus facile à déployer que les versions précédentes. Le module d'installation vérifie la présence des prérequis et télécharge si besoin les différentes mises à jour. Une fois cette étape réalisée, l'installation conjointe de SharePoint 2010 est effectuée. Il suffit d'entrer la clé d'activation et de cliquer ensuite sur installation par défaut et appliquer les mises à jour. Après, le module d'installation de SQL Server 2008 R2 entame un long processus de mise en place. Il demeure un seul élément que ce module ne gère pas, c'est la création de comptes de services. Un redémarrage est nécessaire pour avoir accès aux différentes fonctionnalités et applications. Ces différents outils sont faciles à utiliser et l'apport d'éléments connus permet de développer plus aisèment des applications de BI.

Une BI dernière génération

Cette orientation est souvent un problème important pour la plupart des responsables. Il y a trop de données disponibles, mais retrouver celles importantes et être capable de les transformer, peut s'avérer très difficile. PowerPivot et Excel 2010 accompagne les gestionnaires en utilisant des outils accessibles pour apporter de la BI même sur des grands volumes de données.

[[page]]

Lors d'un test, PowerPivot a importé 4 millions de lignes depuis la base de données test de Microsoft. L'éditeur explique qu'avec suffisamment de mémoire, il est capable d'importer 100 millions de lignes. On peut utiliser Excel pour importer des données, le format des données, et l'inclure dans des bases de données. Les fichiers peuvent également être exportés vers SharePoint et partagée. Data Analysis Expression (DAX) est un nouveau langage disponible à travers PowerPivot permettant aux managers de faire des rapports sur les données en utilisant des formules d'Excel.

SQL server est également bien intégré avec Visual Studio 2008 et comprend le SQL Server Integration Service Designer, qui trouve sa place au sein du Business Intelligence Development Studio (BIDS). Ce dernier est un shell Visual Studio pour l'élaboration de solution BI utilisant SQL Server Integration Services Designer (SSIS), SQL Server Analysis Service (SSAS) et SQL Server Reporting Services (SSRS). Le résultat donne une solution fluide pour l'utilisateur final pour créer sa base de données, trouver ses données, analyser et dresser des rapports tout en utilisant un ensemble d'outils très puissants. L'utilisateur peut commencer par la base de données, ou avec les outils d'analyse, ou créer un flux de travail, et rassembler les différents éléments à la volée.

Le Master Data Services est disponible via une application Web, fournissant une interface simple et standardisée pour créer un modèle de données, ce qui permet de définir des types de données, des groupes et une structure arborescente pour contenir et organiser les données. Une fois les structures de données établies, les hiérarchies crées et les relations définies, vous pouvez configurer la sécurité entre les différents niveaux, importer des données dans le modèle, parcourir les données, ajouter ou d'affiner les relations, puis d'exporter les données et examiner les résultats. L'ensemble du processus s'apparente au développement d'applications dans Visual Studio, mais en étant orienté sur la création de structures de données standard.

[[page]]

StreamInsight est une application isolée qui s'ajoute à SQL Server et qui requiert des autorisations spécifiques pour activer ce service. Cette solution est une extension de Visual Studio destinée à traiter les données en temps réel et au fil de l'eau. Il peut importer des volumes importants de données, gérer des historiques ainsi que le temps réel, d'analyser et les enregistrer. Alors qu'une forte demande initiale était orientée vers l'enregistrement des événements tels que les clics de souris ou d'autres types d'entrées par l'utilisateur, aujourd'hui toute sorte de données analogiques ou numériques peuvent être utilisées. Les outils Visual Studio peuvent alors être utilisés pour créer des structures de données en temps réel, pendant que StreamInsight Event Flow Debugger propose des outils pour tracer les évènements.

La fonctionnalité Data-Tier, intégrée à Visual Studio, donne aux développeurs la possibilité d'extraire, modifier et déployer des bases de données dans le cadre d'applications. Auparavant, il était nécessaire d'installer séparément la demande de création d'une base de données, du code à la création et à l'enrichissement de cette base. Il fallait également ajouter du code pour connecter cette base de données à l'application. Tout ce processus est grandement simplifié.

Pour les administrateurs, le SQL Server Utility permet la gestion plus facile de plusieurs bases sur des serveurs différents. Cette solution inclut Utility Control Point qui recueille la configuration et le rendement des serveurs SQL multiples, un Utility Explorer qui offre une vue arborescente des serveurs, et un tableau de bord avec des informations succinctes sur les serveurs.

Pour conclure, SQL Server 2008 R2 héberge des fonctionnalités qui sont particulièrement bienvenues par les utilisateurs qui ont besoin de Businness Intelligence. Supportant jusqu'à 256 CPU et disposant d'outils de gestion plus efficace, le logiciel devrait aider les administrateurs. Petit bémol néanmoins, ces fonctionnalités nécessitent une mise à jour substantielle des entreprises qui ne sont pas encore passées à Windows 7, Office 2010 et SharePoint 2010.

(...)

(23/04/2010 17:18:19)

PowerPivot hisse le décisionnel dans Excel avec SQL Server 2008 R2

La R2 de SQL Server 2008 a été mise en production cette semaine par Microsoft. Elle sera disponible en mai pour les clients auprès des distributeurs du produit. Cette mise à jour de la base de données relationnelle a muri pendant deux ans et, lors de ses premières présentations, sa version CTP (Community Technology Preview) a été téléchargée plus de 300 000 fois, a indiqué l'éditeur.

Parmi les évolutions importantes figurent l'enrichissement des fonctions décisionnelles avec la technologie PowerPivot (illustration ci-dessus). Cet add-on à Excel permettra aux familiers (voire inconditionnels) du tableur d'effectuer des analyses avancées à partir de leur logiciel de bureautique habituel. Ils l'utiliseront pour charger d'importants volumes de données, potentiellement depuis n'importe quelle source, et les manipuler ensuite très rapidement à l'écran grâce au moteur d'analyse in-memory. A cela s'ajoute l'apport du langage de formules DAX (Data analysis expressions), dont la syntaxe est, assure Microsoft, très proche de celle utilisée pour les formules d'Excel. Celui-ci va servir à effectuer des calculs au sein des tableaux réalisés avec PowerPivot. Il utilise certaines des formules déjà présentes dans le tableur, mais aussi d'autres fonctions conçues pour prendre en compte des données relationnelles et réaliser des agrégats dynamiques sans être un spécialiste des SGBDR ou des concepts OLAP. Ces fonctions (de filtrage, logiques, statistiques...) s'appuient sur les tables et les colonnes et permettent de tirer parti des technologies in-memory pour accélérer les calculs et la présentation des résultats.

Gestion des données de référence et CEP

SQL Server 2008 R2 a par ailleurs amélioré ses capacités de montée en charge en environnement datacenter. En le combinant avec Datacenter Edition, une instance de la base peut tourner sur des systèmes exploitant jusqu'à 256 processeurs logiques (contre 64 précédemment). Le fonctionnement du logiciel dans les environnements virtualisés avec Hyper-V a également été optimisé.

A noter qu'une nouvelle fonctionnalité de l'outil d'administration, Utility Control Point, permet de gérer les règles de fonctionnement sur plusieurs fermes de serveurs SQL à partir d'une seule console.

Deux nouveaux composants apportent aux départements informatiques, d'une part, des outils de gestion des données de références (Master Data Services) et, d'autre part, des fonctions de CEP (complex event processing) pour traiter les flux d'événements complexes (composant StreamInsight).

(...)

(14/04/2010 15:48:59)

MySQL selon Oracle : un soupçon de libre et une dose de commercial

« MySQL dispose de plusieurs propriétés, qu'Oracle n'a pas » souligne Edward Screven dans une interview à Infoworld avant son discours lors de la conférence O'Reilly MySQL et d'ajouter « c'est petit, facile à installer et accessible pour les développeurs ». La base de données en open source donne à Oracle l'accès à un segment de marché non adressé par ses produits. « Il est important pour nous que MySQL soit un succès commercial. Et cela passera par des investissements de notre part » explique Edward Screven. Le dirigeant rappelle que des efforts ont déjà été réalisés pour améliorer les performances du système, avec l'intégration des équipes MySQL et InnoDB (moteur de stockage). Cette action a permis une augmentation de 35% des performances des bases de données MySQL fonctionnant avec 100 connexions simultanées. Les évolutions à venir porteront sur l'amélioration de cette vitesse en se reposant sur une granularité plus fine des requêtes de recherches et la réduction des conflits d'accès. « Une partie du problème, qui existait entre InnoDB et MySQL, était la mauvaise coordination des dates de sortie des produits. Cela rendait très difficile le déploiement des dernières évolutions au sein des versions finales » analyse Edward Screven.

Il a également indiqué que ce renforcement de la performance, ainsi que d'autres évolutions seraient disponibles à la fois pour la communauté des développeurs, mais surtout à des fins commerciales. Néanmoins, certaines fonctionnalités, comme la sauvegarde à chaud ou la surveillance, ne se trouveront que dans l'édition entreprise. Même si des initiatives sur les moteurs de stockages ont été réalisées par la communauté MySQL à travers des outils comme MariaDB et Drizzle, l'architecte en chef réaffirme que les efforts d'Oracle sur MySQL seront orientés vers ses clients.

Il n'est pas sûr que ces propos aient levé les doutes auprès de la communauté MySQL.

(...)

(09/04/2010 12:31:19)

Oracle précisera sa stratégie pour MySQL le 13 avril

Les utilisateurs de MySQL devraient bientôt obtenir des précisions sur la feuille de route programmée par Oracle pour la base de données Open Source. Mardi matin, la conférence O'Reilly MySQL, qui se déroule à Santa Clara du 12 au 15 avril, a prévu une intervention d'Edward Screven (photo), architecte en chef de l'éditeur et responsable des activités Open Source, ces dernières englobant aussi Unbreakable Linux, Open Office, les outils de virtualisation (VirtualBox notamment), ou encore InnoDB et Berkeley DB. « Nous avons hâte de présenter nos projets concernant MySQL et d'apporter à la communauté de développeurs une vision plus détaillée des évolutions auxquelles elle peut s'attendre dès à présent et à plus long terme », a indiqué dans un communiqué diffusé hier ce vétéran d'Oracle. Collaborateur de la société depuis 1986, il rend directement compte à Larry Ellison, le PDG fondateur.

Monty Widenius présente MariaDB dans la foulée

MySQL constitue un axe stratégique pour Oracle, a encore rappelé Edward Screven. L'éditeur a programmé sur les prochaines semaines deux forums à l'attention des utilisateurs de MySQL. Le premier se tiendra en Europe, à Amsterdam, le 6 mai. Le suivant aura lieu le 3 juin au siège même d'Oracle, c'est-à-dire à Redwood Shores (Californie).

Depuis qu'Oracle a annoncé son intention de racheter Sun, qui détenait MySQL, les voix des défenseurs de la base de données Open Source se sont immédiatement élevées. Nombre d'entre eux, aux rangs desquels Michael Widenius (créateur finlandais du SGBD), ont manifesté leur inquiétude de voir la société de Larry Ellison étouffer le développement du produit afin de protéger sa base propriétaire à laquelle MySQL fait de l'ombre. C'est même pour cette raison précise que l'autorisation de racheter Sun a mis tant de temps à être accordée par la Commission Européenne.[[page]]En décembre, Oracle a établi et diffusé une liste d'engagements autour de la base de données Open Source. Parmi ceux-ci figuraient en particulier la promesse de lui conserver sa diffusion sous licence GPL (General Public License) et de ne pas obliger les clients à souscrire le support auprès d'Oracle en cas d'achat d'une licence commerciale de MySQL. L'éditeur de Redwood Shores a aussi garanti qu'il allait doper les dépenses de recherche et développement sur le produit.

Malgré cela, des interrogations demeurent sur la façon dont Oracle va se comporter à long terme et nul doute que les propos d'Edward Screven vont être écoutés avec une certaine attention mardi prochain à Santa Clara.

A noter que le lendemain matin, ce sera au tour de Michael Widenius, de Monty Program Ab, d'intervenir pour présenter l'état d'avancement de sa nouvelle base de données, MariaDB, clone de MySQL. Pour décrire son projet, lors d'un entretien avec LeMondeInformatique.fr l'an dernier, 'Monty' avait indiqué qu'il prévoyait de proposer « la même base, avec plus de fonctions et moins de bugs ».

(...)

(08/04/2010 16:06:10)

Systèmes décisionnels intégrés : IBM renchérit sur Oracle Exadata

IBM vient de présenter plusieurs offres packagées associant intimement matériel et logiciel pour accélérer l'analyse de très importants volumes de données. Certaines de ces solutions reposent sur sa technologie DB2 pureScale dévoilée en octobre dernier. Destinée à ses systèmes Power, celle-ci optimise le traitement de bases très volumineuses gérées sur une combinaison de serveurs et systèmes de stockage reliés en grille, en limitant au maximum la dégradation des performances.

Les solutions présentées hier par IBM sont destinées aux applications d'entrepôt de données, mais aussi aux systèmes transactionnels. Elles viennent concurrencer directement les gammes Exadata d'Oracle. Ces dernières combinent elles-aussi matériel et logiciel en s'appuyant sur une architecture massivement parallèle de serveurs de bases de données et de stockage logés dans une armoire rack. La première version d'Exadata, annoncée en 2008, reposait sur du matériel HP et concurrençait les appliances de datawarehouse du marché (celles de Teradata, par exemple) ; la deuxième version, sur serveurs 'maison' Sun, vise aussi les applications de production.

Réduction de l'espace de stockage, recours aux SSD

Les annonces d'IBM ont porté d'une part sur pureScale Application System, associée aux environnements Power7 et aux serveurs d'application WebSphere, et d'autre part, sur la plateforme intégrée Smart Analytics Systems. Cette dernière peut être livrée sur des serveurs et systèmes de stockage IBM en environnement x86, mais elle est aussi disponible sur les mainframes System z. Chaque combinaison matériel/logiciel (ou 'appliance') est fortement intégrée à tous les niveaux, du processeur aux serveurs et aux systèmes de stockage, insiste IBM. Outre la rapidité d'analyse obtenue sur les données, notamment pour des applications de gestion des risques ou de mise à jour d'opportunités, Big Blue pointe la réduction de l'espace de stockage. Celle-ci peut aller jusqu'à 80%, en recourant à des algorithmes de forte compression des données.[[page]]L'offre pureScale vient répondre à des besoins transactionnels. Elle pourra être utilisée, par exemple, pour gérer les réseaux électriques 'intelligents' (smart grid).
En revanche, les solutions s'appuyant sur Smart Analytics sont plutôt destinées à des applications décisionnelles portant sur des données structurées et non structurées. Elles intègrent les solutions de Business Intelligence de Cognos et le logiciel de datawarehouse InfoSphere.
A noter qu'une option de stockage sur disque SSD est proposée pour augmenter encore les performances des systèmes (Oracle aussi fournit cette option sur Exadata, avec la technologie FlashFire de Sun).

IBM finance la migration des revendeurs de Sun

Pour vendre ces produits, IBM aimerait bien s'attacher les compétences des partenaires de Sun Microsystems (désormais racheté par Oracle). Pour soutenir leur démarche de migration vers ses configurations, IBM actionne le levier financier. En recourant à sa division Global Financing, il prévoit de dégager jusqu'à 500 millions de dollars en facilités de crédit pour aider les revendeurs de Sun à rejoindre ses rangs. Selon lui, plus d'une centaine d'entre eux aurait déjà étendu ou démarré un partenariat en s'appuyant sur ce financement.

(...)

(31/03/2010 11:03:51)

Un pilotage des coûts RH plus fin chez Bolloré Logistics

A l'invitation de l'éditeur Information Builders, Christophe Lebrun, Reporting Manager chez Bolloré Logistics et Florence Decatra, responsable applicatifs ressources humaines, ont présenté jeudi 25 mars leur projet Rhea de pilotage des coûts liés aux ressources humaines au sein de leur entreprise. Bolloré Logistics est un spécialiste du commissionnement de transport, de la manutention portuaire, du stockage et de la distribution présent dans 90 pays et générant 3 milliards d'euros de chiffre d'affaires. 60% de ses coûts sont liés aux ressources humaines, d'où l'importance de les piloter.

Le projet Rhea a été co-piloté par la DRH et la DAF et a suivi la création, fin 2008, d'un poste de contrôleur de gestion sociale, issu du contrôle de gestion mais ayant une dimension ressources humaines. Pour la DAF, il s'agissait de « comprendre la facture des frais de personnel » en y intégrant les factures d'intérim, la masse salariale pure, les avantages en nature, certains retraitements comptables, etc. Ainsi, la rentabilité de l'entreprise pouvait être mieux suivie et les différentes entités rendues capables de se benchmarker. La DRH avait, elle, besoin de pouvoir piloter la politique de rémunération, d'embauche, de négociations collectives... Enfin, les directions opérationnelles devait disposer d'un outil pour maîtriser l'un des « leviers essentiels de leur performance ».

Bien entendu, il existait un pilotage avant le projet Rhea mais les données étaient peu partagées et très hétérogènes. La définition même du terme « effectif » ne renvoyait pas au même concept selon l'interlocuteur. L'essentiel du pilotage se faisait au travail d'extraction et de retraitements de la paye gérée sous HRAccess. Or la paye est une source de données incomplète, la facture des intérimaires n'y figurant pas par exemple. Le projet a donc consisté a compléter les extractions pures de la paye par des extractions issus d'autres logiciels de gestion. La gestion des extractions se fait en mode batch mensuel. Les masses concernées étant considérables, l'objectif était de disposer des éléments en J+6. Les premiers éléments ont été mis en oeuvre début 2009 et Rhea dispose à ce jour de 80 utilisateurs en France, contre 300 dans le monde au terme du déploiement.

[[page]]

La multiplicité des sources de données imposait de d'abord mettre en oeuvre un outil d'intégration. En l'occurrence, Bolloré Logistics disposait de Microsoft SQL Server et de l'outil d'ETL SSIS intégré. C'est donc sous cet outil que la base de données de consolidation a été mise en place. La couche décisionnelle a été l'objet d'une mise en concurrence approfondie entre Webfocus de Information Builders et Business Object de SAP. Techniquement, aucun critère discriminant n'a pu être réellement relevé. Webfocus était handicapé par l'absence de compétences internes suffisantes chez Bolloré sur ce produit. Malgré tout, il a été choisi parce qu'il était capable de gérer le mode déconnecté, la saisie manuelle de données complémentaires, qu'il disposait d'un cube OLAP intégré et, surtout, que son éditeur pouvait aussi être son intégrateur. Ainsi, il a été possible de faire développer un panneau d'administration utilisable par le contrôle de gestion et la DRH pour 95% des opérations d'administration, celles qu'elles étaient en mesure de réaliser sans intervention de la DSI.

Le projet Rhea permet de traiter des masses mais aussi de descendre jusqu'à l'individu (en fonction des droits de chaque opérateur). Pour l'heure, le projet permet de réaliser des analyses d'effets par type d'évènement (évolutions réglementaires, gestion des ressources...). A terme, il permettra d'analyser les effets reports d'une décision prise à un moment donné et les écarts entre le prévu et le réalisé.

Les analyses portent bien sûr sur la productivité mais aussi sur l'absentéisme, les frais d'intérim, les heures supplémentaires, les accidents du travail (gravité, fréquence, localisation...), les salaires (et les augmentations collectives comme individuelles)... Ces analyses ont lieu en euros et/ou en équivalents temps plein, avec les redressements adéquats (par exemple, répartition du treizième mois). D'autres analyses sont également envisagées ultérieurement. (...)

(26/03/2010 11:29:32)

Oracle explique les vertus de la fusion à ses clients

A l'époque du rapprochement entre HP et Compaq, nombreux étaient les clients des deux sociétés, notamment le groupe Decus, qui s'interrogeaient sur l'abandon ou la continuité de certains programmes ou produits, Tandem  et Himalaya. Pour éviter ce piège, Oracle a, quelques semaines après l'approbation de la fusion par la Commission européenne, organisé un événement partenaires et clients, dans les locaux de l'activité France. Le directeur général, Pascal Dumontet, a présenté le travail commun, réalisé depuis avril 2009, date de l'annonce de la fusion avec Sun Microsystems. Si le quitus européen existe, les deux entités françaises sont encore indépendantes juridiquement. La fusion ne devrait être effective qu'au mois de juillet prochain. Ces efforts ont symboliquement transformé, jusqu'à la communication institutionnelle d'Oracle, qui change sa ligne directrice « Software. Hardware. Complete ». Elle rappelle la volonté de fournir des solutions de bout en bout, allant du stockage aux applications. Pascal Dumontet a également insisté sur les investissements dans la R&D qui sont prévus d'ici 2011 à hauteur de 4,3 milliards de dollars dont une grande partie affectée à l'intégration des technologies.

Une combinaison de valeurs

En dehors du discours commercial bien rôdé, les différentes interventions des représentants de Sun et d'Oracle ont démontré l'intégration du meilleur des deux mondes. Sue Oliva, vice-président de Sun Microsystems France souligne que « cette fusion est une suite naturelle de notre partenariat qui existait depuis plusieurs années, elle apporte aujourd'hui des réponses communes tant sur le plan commercial avec un portefeuille complet, mais également un support unique ». Alors quelle en est la traduction ? Sur la partie des équipements, Eric Bézille, ingénieur en chef chez Sun montre que les solutions matérielles vont intégrer des fonctionnalités d'optimisation des applications. Pour ce faire, les supports de stockage Flash, de type SSD devraient de plus en plus intégrer les serveurs (des annonces sont prévues le mois prochain) y compris ceux de volumes comme les x86. Cela doit répondre à la demande de plus en plus croissante de rapidité dans les transactions, mais également dans le traitement des requêtes des bases de données. Sur la partie software, pas d'inquiétude à avoir sur l'avenir de Solaris, le système d'exploitation reste « une clé de voûte » des recherches d'Oracle en gardant la spécificité Open Source et en aidant la communauté Open Solaris dans ses travaux. Solaris 10 et les évolutions d'OpenSolaris doivent arriver prochainement. Sur la partie développement, les récentes déclarations lors de l'EclipseCon démontrent l'implication d'Oracle à poursuivre les travaux sur Java et toutes ses composantes à travers le serveur d'applications Glassfish.

A l'issue des différentes présentations, les partenaires et les clients étaient plutôt rassurés, seules quelques inquiétudes sur les retards dans la fourniture de certains produits persistées, ce qui finalement était plutôt bon signe.

(...)

< Les 10 documents précédentsLes 10 documents suivants >