Flux RSS
SGBD

377 documents trouvés, affichage des résultats 191 à 200.
< Les 10 documents précédents | Les 10 documents suivants > |
(16/03/2009 17:05:39)
Sybase prêt à débourser jusqu'à 500 M$ pour renforcer sa technologie
La trésorerie dont dispose l'éditeur américain Sybase lui permet d'envisager des acquisitions. Selon Bloomberg News, le PDG de la société, John Chen, a déclaré la semaine dernière à New-York qu'il pourrait débourser jusqu'à 500 M$ pour procéder à des achats lui permettant de renforcer sa technologie. Le dirigeant n'a pas souhaité précisé quels domaines étaient plus particulièrement explorés, mais Bloomberg rappelle que la société investit en ce moment dans les technologies lui permettant de déployer des applications de banque en ligne pour utilisateurs nomades (mobile banking). En janvier dernier, Sybase a ainsi acquis l'Allemand Paybox Solutions AG qui a développé une solution de paiement mobile. Editeur d'une base de données déclinée dans une version mobile, Sybase a largement développé, depuis 2000, son expertise dans les solutions middleware (dites iAnywhere) destinées aux applications de mobilité. Il vient d'ailleurs de signer avec SAP un partenariat pour multiplier les possibilités d'accéder à l'offre de gestion SAP Business Suite à partir de divers assistants numériques ou smartphones (iPhone, Blackberry, terminaux sous Windows Mobile...). Sybase a terminé son année fiscale fin décembre 2008 sur un chiffre d'affaires en hausse de 10% à 1,13 Md$ (pour un bénéfice net en légère baisse à 138,6 M$), mais l'éditeur est surtout à la tête d'un trésor de guerre en cash d'environ 620 M$. (...)
(09/03/2009 15:18:25)IBM facilite la constitution d'entrepôts de données avec Informix
IBM continue de faire évoluer son offre Informix, base de données orientée transactionnel (OLTP, online transaction processing) rachetée en 2001, en apportant à ses clients des outils pour faciliter l'alimentation d'entrepôts de données. L'offre Informix Warehouse Feature, disponible ce mois-ci au niveau mondial, comprend des outils pour préparer les données transactionnelles en vue d'une analyse décisionnelle, celle-ci pouvant se concentrer sur l'environnement Informix ou s'insérer dans une mise en oeuvre plus large impliquant de multiples sources de données. « L'objectif, c'est de ne pas dupliquer les informations puisque nous allons de plus en plus vers du décisionnel opérationnel, explique Isabelle Claverie-Berge, spécialiste de l'offre Information Management au sein d'IBM France. Nous souhaitions avoir une offre de datawarehouse sur Informix, en particulier pour nos clients dans le secteur des télécommunications et de la distribution. » Au-dessus de l'entrepôt de données, les clients pourront utiliser les outils de requête, d'analyse et de restitution de Cognos (racheté par IBM fin 2007). Une composante de l'offre Information Management L'offre Informix est l'une des composantes du catalogue Data Management (gestion des données) d'IBM, lui-même inséré dans l'entité Information Management du fournisseur. Cette dernière se divise en quatre catégories de produits : les bases de données (DB2, mais aussi Informix, SolidDB, une base en mémoire utilisée comme cache des bases relationnelles, U2, base multi-valuée et IMS, base hiérarchique), la gestion de contenus (avec le rachat de FileNet), l'offre Infosphere (ETL, MDM -master data management...) et, enfin, les outils d'analyse décisionnelle et de gestion des performances rassemblés dans l'offre Cognos. Dans l'offre Infosphere figure notamment Metadata Server qui permet de gérer les données de références de bout en bout. (...)
(13/02/2009 18:01:19)Techdays'09 : Azure, Seven, Multitouch, les technologies de Microsoft mises à nu
Troisième édition et un succès qui ne se dément pas pour la grand-messe française de Microsoft, où développeurs, administrateurs systèmes et décideurs IT se sont pressés pour approfondir leurs connaissances et obtenir des informations sur les futurs produits. Windows Azure, Windows Seven, Visual Studio 2010 étaient ainsi au coeur des interrogations, les 10, 11 et 12 février derniers au Palais des Congrès de Paris. LeMondeInformatique.fr a assisté aux trois jours de l'événement ; notre dossier vous propose un compte-rendu pratique et sans langue de bois. (...)
(06/02/2009 16:26:29)Le fondateur de MySQL quitte finalement Sun
Après des mois d'hésitations, il est temps de tourner la page. Michael « Monty » Widenius, l'un des cofondateurs de MySQL, a annoncé hier sur son blog qu'il quitte son poste au sein de Sun pour fonder sa propre société, Monty Program Ab. Il faut dire que depuis le rachat de MySQL par Sun il y a un an, les relations entre les cofondateurs et leur nouvel employeur n'étaient pas au beau fixe. Ainsi, dès septembre dernier, après la sortie de MySQL 5.1, Monty Widenius avait déjà envisagé de démissionner . On sait désormais que les dirigeants de Sun l'ont convaincu de rester trois mois de plus pour assurer le développement de MySQL. Pendant ce temps, son compère David Axmark a claqué la porte de Sun en précisant : "Je déteste les règles que je dois suivre, mais je répugne également à les enfreindre. Il serait donc mieux pour moi de quitter mon poste, et de travailler avec MySQL et Sun sur une base moins formelle." Les trois mois de sursis s'étant transformés en sept mois sans changement, Monty Widenius jette aujourd'hui l'éponge. Il regrette principalement que le développement de MySQL Server n'ait pas été réellement ouvert, sans faire de différenciation entre le travail interne à Sun et celui des développeurs extérieurs. Malgré tout, il reconnaît que « Sun était le meilleur acquéreur possible pour MySQL ». Sa nouvelle société, Monty Program Ab, entend se concentrer exclusivement sur des projets Open Source. Elle se consacrera notamment au moteur de stockage transactionnel Maria. Certains développeurs ayant travaillé sur ce projet rejoindront la nouvelle société, tandis que d'autres resteront chez Sun, sans que cela freine leur collaboration. (...)
(09/01/2009 16:59:05)41 rustines pour le Patch Tuesday à la mode Oracle
Oracle lancera mardi prochain sa première salve de rustines de l'année 2009. D'après le bulletin préliminaire de l'éditeur, ce Critical Patch Update (CPU) rassemblera pas moins de 41 mises à jour de sécurité « concernant des centaines de logiciels Oracles différents ». Plus de 15 d'entre elles concernent des failles pouvant être exploitées sans authentification préalable de l'utilisateur, ce qu'Oracle considère généralement comme un niveau de sévérité majeur. Neuf d'entre elles sont dans Oracle Secure Backup, deux dans Application Server et cinq dans la suite de produits BEA. Avec 41 rustines, cette première mise à jour trimestrielle pour 2009 se situe dans la lignée de la dernière de 2008 avec ses 36 patchs. Des chiffres relativement peu élevés comparés aux centaines de rustines délivrées chaque trimestre en 2006 par exemple. Pour autant, et malgré les incitations d'Oracle, les administrateurs sont plutôt réticents à installer ces rustines, ne voulant pas interrompre les machines pour elles et craignant qu'elles ne perturbent le fonctionnement d'applications souvent critiques pour l'entreprise. (...)
(30/12/2008 11:51:50)Quarante pages de conseils Microsoft pour un SI durable
La dernière édition de The Architecture Journal, publication éditée par Microsoft, est entièrement consacrée au Green IT. Ou, plus exactement, aux systèmes d'information durables et compatibles avec les bonnes pratiques en matière de préservation de l'environnement et de réduction des émissions de CO2. Comme l'écrit le rédacteur en chef dans son édito, « alors que l'informatique devient omniprésente, que la consommation d'énergie due à l'informatique grimpe, [...] que dans le même temps les coûts de l'énergie augmentent - tant à cause des réglementations que de la rareté des stocks d'énergies naturelles qui vont en s'épuisant - les dirigeants IT doivent se focaliser sur l'efficacité énergétique et le coût total d'exploitation, particulièrement dans un contexte de crise financière mondiale ». Le numéro 18 de ce trimestriel, disponible gratuitement en PDF, explore donc en une quarantaine de pages tout ce qui contribue à une architecture de SI éco-compatible, des techniques de climatisation des datacenters à la conception des applications, en passant par la consolidation et la virtualisation. Des bonnes pratiques de gouvernance... aux références aux produits maison Le premier chapitre, consacré à la conception d'un système d'information durable d'un point de vue environnemental, est écrit par Lewis Curtis, architecte principal chez Microsoft. Il pose les bases d'une réflexion d'ordre général pour quiconque souhaite concilier des impératifs écologiques et économiques avec les impératifs de performance attendus d'un système d'information. A ce titre, son analyse n'a rien à envier à celle d'un cabinet d'études qui la vendrait plusieurs milliers de dollars. En revanche, les réponses de Lewis Curtis sont bien évidemment orientées, puisqu'elles impliquent les produits qu'il représente. Au lecteur de conserver les réponses architecturales et d'appliquer ce modèle de réflexion avec ses propres références ; en matière de gouvernance, les bonnes pratiques ne dépendent pas d'un éditeur ou d'une technologie. Le deuxième chapitre rappelle quelques évidences en ce qui concerne le déploiement d'applications. Les auteurs expliquent ainsi qu'une application mal conçue - qui exige un serveur à elle seule, ou n'utilise qu'un coeur d'un processeur multicoeur - a un impact négatif sur la consommation énergétique. De même, il ne faut pas, indique l'article, omettre de recourir aux modes d'économies d'énergie lorsqu'une application, un disque ou un processeur est inactif, ou oublier d'alléger les bases de données de production en recourant à des systèmes d'archivage. A l'inverse, le fait de consolider des applications, ou mieux de recourir à la virtualisation conduit à des gains importants. L'étape ultime étant le 'cloud computing'. Dans tous les cas, les auteurs donnent des critères à observer et des métriques pour évaluer l'impact en matière de réduction de la consommation d'énergie (et, partant, de la facture d'électricité). Les composants applicatifs et architectures distribuées pour un impact minimal sur l'environnement [[page]] Le troisième chapitre s'attaque aux architectures applicatives. Fini le temps où on pouvait se permettre de dimensionner une solution en prenant comme critère de base son niveau de pic de charge plus 20 à 50%, histoire d'être tranquille. L'article donne donc moult conseils pour optimiser les applications, l'idée étant qu'elles aient un impact minimal en termes de consommation de ressources. Cela passe par le recours à des composants applicatifs, à des architectures orientées services (SOA), de l'instrumentation et de la supervision, de la virtualisation, de l'équilibrage de charges...Là encore, et d'ailleurs les auteurs prennent soin de le préciser, « si la taxonomie peut apparaître spécifique à Microsoft et à Windows, cela fonctionne aussi bien avec d'autres OS et applications ». Un chapitre entier est consacré à la façon dont on peut calculer la consommation d'énergie d'un serveur, d'un disque dur, d'une application, d'une base de données, etc. Avec cette abaque, il devient beaucoup plus simple de traduire en termes monétaires les gains apportés par telle ou telle bonne pratique. Les auteurs de ce chapitre en profitent pour rappeler qu'un certain nombre de services sont totalement inutiles pour faire tourner une machine virtuelle. Cela tombe bien, Windows Server 2008 ayant appris d'autres OS et proposant un mode d'installation minimal. Le DC Genome, ou comment évaluer la climatisation d'un datacenter avec des capteurs sans fil Plus surprenant, l'avant dernier chapitre détaille la mise en oeuvre de capteurs sans-fil dans le datacenter de Microsoft conçu à cet effet, le DC Genome. Plutôt que d'ajouter de la complexité avec des composants matériels ajoutés aux différents éléments du datacenter, Microsoft a conçu un réseau d'environ 700 senseurs ('genomotes') permettant de mesurer la température et l'humidité partout dans la salle, afin d'ajuster au mieux les paramètres du système de climatisation en quasi-temps réel. Les genomotes eux-mêmes communiquent en IEEE 802.15.4, car, indique Microsoft, il s'agit d'un réseau radio moins gourmand en énergie et en ressources processeur que le WiFi. Le dernier chapitre, pour le coup, ne s'applique qu'aux technologies Microsoft, puisqu'il traite de la consolidation de bases SQL Server telle qu'elle a été pratiquée chez Microsoft, pour son propre système d'information. Et cela pourrait intéresser des clients grands comptes de l'éditeur. En effet, comme n'importe quelle entreprise, Microsoft a dû affronter un tableau peu reluisant : 100 000 bases de données réparties dans 5 000 instances de SQL Server, la plupart sur des serveurs dédiés, chacun présentant un taux d'utilisation moyen des ressources processeur en deçà de 10%. (...)
(23/12/2008 12:30:10)Microsoft alerte sur une faille dans SQL Server
Hier soir, 22 décembre, Microsoft a indiqué qu'une faille pouvait être exploitée dans certaines versions de sa base de données SQL Server. Au nombre des versions concernées par ce problème, l'éditeur liste SQL Server 2000, 2005, 2005 Express Edition, SQL Server 2000 Desktop Engine (MSDE et WMSDE), et Windows Internal Database (WYukon). En revanche, les systèmes qui sont équipés de SQL Server 7.0 Service Pack 4, SQL Server 2005 Service Pack 3 et SQL Server 2008 ne sont pas touchés. Le code permettant d'exploiter cette défaillance a bien été publié sur Internet, mais aucune attaque n'a pour l'instant été signalée. Microsoft travaille avec ses partenaires à la résolution de cette vulnérabilité dans le cadre de ses programmes MAPP (Microsoft active protections program) et MSRA (Microsoft security response alliance). Trois bugs sérieux en un mois C'est le troisième bug d'importance débusqué ce mois-ci sur les produits de Microsoft. Il y a quelques jours à peine, l'éditeur a dû livrer un correctif d'urgence pour son navigateur Web Internet Explorer (IE). Au début de ce mois, il a également alerté sur une faille identifiée dans le convertisseur de son éditeur de texte WordPad permettant d'enregistrer les fichiers au format Word 97. Quatre Service Pack de Windows étaient concernés. Enfin, le fameux « patch Tuesday » du 9 décembre, dernier correctif programmé de l'année avait fourni un record de rustines : 40 Mo pour combler 28 failles, notamment dans Vista et IE. (...)
(19/12/2008 12:57:12)Aberdeen : il faut protéger les bases de données de l'intérieur
Alors que le périmètre extérieur des réseaux d'entreprises a été considérablement renforcé, la véritable menace aujourd'hui sur les bases de données (SGBD) vient de l'intérieur. Une étude d'Aberdeen Group auprès de 120 grandes entreprises a mis évidence le rapport proportionnellement inverse entre les brèches de sécurité et les mesures de sécurité interne. Mieux : les entreprises les plus vertueuses en matière de sécurité sont aussi celles qui savent gérer les environnements les plus complexes avec des coûts inférieurs. En s'appuyant sur une enquête déclarative et un certain nombre d'entretiens individuels, Aberdeen a recensé les meilleures pratiques en matière de sécurisation des données critiques. Le cabinet indique que selon les estimations des entreprises et des analystes, les SGBD stockent entre 62% et 90% des données critiques d'une société. Autant dire, conclut Aberdeen, que tous les oeufs sont dans le même panier. Il convient donc de choisir des paniers solides, de combler les trous dès qu'ils apparaissent, de surveiller la circulation du panier, de brouiller ou mélanger certains oeufs... En termes de conseils moins métaphoriques et plus technologiques, cela se traduit notamment par : - recourir aux mécanismes de sécurité inclus dans les SGBD : cryptage des données, gestion différenciée des rôles des DBA (de par la nature de leur travail, les administrateurs de bases de données représentent en effet la menace la plus importante), outils d'audit, etc. ; - utiliser un outil de supervision tiers (DAM, Database activity monitoring), qui enregistre les activités de toutes les bases et peut agir de façon automatisée en cas de violation d'une règle de sécurité (en émettant une alerte, en bloquant un utilisateur, etc.) ; - adopter une technique de « data masking », masquant la véritable nature des données, notamment lors de phases de développement et de test ;[[page]] - créer éventuellement des bases spécifiques (« database vaults ») pour le traitement de données ultra-sensibles (Aberdeen précise que de plus en plus d'entreprises recourent à cette méthode afin de pouvoir être conformes au nouveau standard de l'industrie des cartes bancaires, PCI DSS, Payment card industry data security standard) ; - adopter une technique de chiffrement préservant le format des données (utile lorsqu'une même données est partagée par plusieurs bases) ; - passer au « virtual patching » : un système tiers se charge de surveiller la publication de rustines par les éditeurs, et d'ériger un bouclier prenant en compte ces mises à jour de sécurité sans qu'il soit besoin d'arrêter la base et de tester toutes les dépendances applicatives. Toutefois, tout ne réside pas dans la technologie. Aberdeen met aussi l'accent sur : - Les processus. Avant de réfléchir aux techniques de sécurité, il faut réfléchir aux processus : quelles sont les données sensibles, à quel rythme faut-il pratiquer des audits, quelles règles de supervision faut-il mettre en place ? - L'organisation. Les entreprises aux SGBD les plus sûrs ont mis en place une équipe chargée de la sécurité, ainsi qu'une politique de formation. - La gestion des connaissances. Aberdeen place sous ce vocable les bonnes pratiques en matière de supervision humaine : savoir lire et interpréter les rapports d'audit, afin d'éditer des règles métier susceptibles de protéger les données sans handicaper le fonctionnement opérationnel des applications. (...)
< Les 10 documents précédents | Les 10 documents suivants > |