La question du moment
Avez-vous mis en place une charte ou une politique encadrant les usages de l’IA générative au sein de l’organisation ?

Flux RSS

SGBD

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

377 documents trouvés, affichage des résultats 1 à 10.

Les 10 documents suivants >


(12/04/2012 15:58:48)

Oracle sort une preview de MySQL 5.6

Oracle a posté une preview de son futur système de gestion de base de données MySQL, histoire d'offrir aux administrateurs un aperçu des nouvelles fonctionnalités auxquels ils auront accès dans peu de temps. Cette version intermédiaire dite Development Milestone Release (DMR) de MySQL 5.6 apporte en effet un certain nombre de nouveautés au système de gestion de base de données Open Source, certaines encore expérimentales, dont une fonction de réplication améliorée et la possibilité de contourner le framework SQL pour accéder plus rapidement aux données.

En tant qu'élément de la pile Open Source LAMP - qui inclut également Linux, Apache et Perl, Python et PHP - MySQL est largement utilisé dans les applications Web. Par exemple, les grands sites populaires comme Twitter, Facebook et Flickr, utilisent MySQL. Dans cette version 5.6 à venir, Oracle et les développeurs extérieurs ont renforcé la manière dont le logiciel gère la réplication des données, de même qu'ils ont potentiellement raccourci les temps de réponse à des requêtes complexes. En ce qui concerne la réplication, MySQL introduit les Global Transactions Identifiers (GTIDs), qui permettent au système de trouver les données quand elles sont répliquées sur différents serveurs. Les GTIDs vont aussi faciliter la commutation automatique vers un serveur miroir en cas de défaillance du serveur principal. Certains logiciels tiers offrent déjà cette fonction, mais ce sera la première fois que MySQL lui-même pourra faire le travail.

Des fonctions expérimentales à découvrir

MySQL 5.6 arrive aussi avec un certain nombre de fonctionnalités qui devraient accélérer les requêtes. Par exemple, le système sait maintenant consolider plusieurs requêtes ou regrouper des ensembles de résultats sur une seule unité de travail. Il peut affecter la date et l'heure par défaut pour les colonnes DATETIME, ce qui évite à l'application de le faire elle-même. Le logiciel peut également accélérer le temps de traitement en optimisant l'ordre d'exécution des requêtes « Filesort » et « ORDER BY ». Autre avantage pour les développeurs, MySQL peut aussi fournir des résultats dans le format JSON (JavaScript Object Notation), très répandu et utile pour l'intégration de données aux applications Web.

En plus de ces fonctions, qui seront totalement opérationnelles dans la version finale de MySQL 5.6, le logiciel inclut également des fonctionnalités expérimentales susceptibles de faire leur apparition dans les futures versions du logiciel, avec l'accord du MySQL Labs d'Oracle, et soumises dès maintenant aux développeurs qui peuvent les tester et voir si elles fonctionnent correctement. Le composant le plus intéressant est sans doute une API qui permet aux applications d'accéder directement aux données du moteur de la base de données InnoDB, sans passer par l'interface SQL. L'API reproduit l'interface de la technologie de mise en cache open source memcache utilisée par Facebook et d'autres pour accélérer l'accès à de grandes quantités de données. « Ce genre d'API peut mettre MySQL à pied d'égalité avec des bases de données NoSQL, qui permettent cette facilité d'accès et gagnent actuellement du terrain dans les applications Web, » avait déclaré l'an dernier dans une interview Tomas Ulin, vice-président de l'ingénierie de MySQL chez Oracle.

Rendre MySQL plus proche de NoSQL

Une autre amélioration expérimentale visant à rendre MySQL plus adapté aux fonctions des bases de données NoSQL, concerne un ensemble d'opérations ADD qui permettent à une application d'écrire des données vers la base de données sans empêcher d'autres opérations d'accéder à l'index de la base de données quand elles inscrivent leurs propres données. Selon Oracle, ce genre de caractéristique pourrait être appréciée par les services Web.

L'éditeur n'a pas révélé à quel moment il envisageait de livrer la version finale de MySQL 5.6. La dernière mise à jour majeure de MySQL, la version 5.5, date de décembre 2010.

(...)

(06/04/2012 13:50:33)

Mark Hurd, coprésident d'Oracle, expose sa vision de l'analyse décisionnelle

Avec sa salve d'annonces faites en milieu de semaine, Oracle veut se positionner comme un acteur principal du secteur de l'analyse décisionnelle et se montrer plus pertinent aux yeux des clients de son rival SAP. Le mois dernier, l'éditeur avait déjà évoqué les grandes lignes de sa stratégie, dont le détail a été publié sur son site Intenet mercredi. Le même jour, le coprésident d'Oracle, Mark Hurd, a donné encore plus de précisions à ce sujet au cours d'un webcast qu'il a tenu pendant la conférence OpenWorld de Tokyo.

L'articulation choisie par Mark Hurd tourne autour des dangers que vont représenter les quantités toujours plus grandes d'informations numériques. « La quantité de données sur la planète est tout simplement énorme, » a-t-il déclaré. «  Et, j'ai de mauvaises nouvelles. Cela va s'aggraver. La vraie question est de savoir comment obtenir la bonne information auprès de la bonne personne au bon moment pour prendre la bonne décision, » a-t-il ajouté. « Et ce n'est pas facile. »

Prendre la bonne décision des centaines de fois

Le dirigeant d'Oracle a cité le cas d'un agent posté à la porte d'embarquement d'un aéroport. Celui-ci doit décider à quel passager donner le dernier siège sur un vol dont les sièges ont été survendus. « Sa décision va changer la relation existant entre le passager et la compagnie aérienne pour la vie », a-t-il déclaré. « S'il donne la place à quelqu'un d'autre que vous et qu'il vous force à attendre trois ou quatre heures pour attraper le prochain vol, vous n'allez probablement jamais l'oublier. Et si l'agent de la compagnie aérienne doit prendre ce genre de décision des centaines de fois, il est important qu'il fasse le bon choix. C'est la raison pour laquelle cette nouvelle génération de systèmes analytiques décisionnels est si importante. »

Dans la série d'annonces produits faite mercredi, Oracle a mis en avant sa gamme de logiciels d'analyse et sa machine Exalytics, laquelle, comme la plate-forme HANA de SAP, utilise le traitement in-memory adapté aux charges de travail analytique haute performance. Une autre annonce concerne la version 11.1.2.2 de l'EPM (Enterprise Performance Management) Hyperion. « Contrairement à ce que laisse imaginer son nom, la mise à jour est loin d'une version release, avec ses nombreuses fonctionnalités et ses améliorations, » a déclaré Paul Rodwick, vice-président de la gestion produits pour Oracle BI, dans une interview donnée avant l'intervention de Marck Hurd. Parmi ces nouvelles fonctionnalités, on trouve des modules d'application pour la planification financière et le rapprochement des comptes, l'intégration avec Exalytics, une expérience utilisateur revisitée et de nouvelles passerelles entre Hyperion Data Relationship, Oracle 12.1 E-Business Suite et Fusion Financials, lesquelles permettent « une intégration plus rapide et plus facile des plans comptables et d'autres données financières entre applications ERP, » comme l'a déclaré Oracle.

[[page]]

Mercredi également, Oracle a annoncé Endeca Information Discovery, un produit qui résulte du rachat d'Endeca l'an dernier. Le système permet aux utilisateurs de parcourir finement des données structurées et non structurées selon un mode itératif dit « model-as-you-go », comme le précise un communiqué. Cette fonctionnalité est combinée à « une expérience utilisateur acquise dans le domaine du e-commerce, » a encore déclaré Oracle. « La plate-forme est notamment utilisée dans l'analyse des demandes d'indemnisations dans le secteur de l'assurance et dans l'analyse des tendances sur les réseaux sociaux », a ajouté Oracle. Selon un porte-parole, Endeca information Discovery sera certifié pour Exalytics en milieu d'année.

Oracle a également annoncé une série d'applications spécialisées que les clients de SAP peuvent utiliser pour analyser les dépenses et les achats, et dans la chaîne d'approvisionnement et de gestion des commandes. Le vendeur a aussi annoncé deux nouvelles applications analytiques pour les systèmes Oracle. L'une, qui permet aux fabricants d'avoir un aperçu sur leurs opérations, et une autre qui permet aux entreprises de visualiser comment sont utilisées leurs ressources, véhicules et équipements par exemple.

« SAP, qui ne prend pas Oracle à la légère, remporte sur le terrain beaucoup de succès face à son rival. En particulier, nous réussissons à supplanter Hyperion avec notre propre logiciel EPM Business Objects, » a déclaré Sanjay Poonen, président et corporate officer Global Solutions, chez SAP, dans une interview donnée avant les annonces d'Oracle.

(...)

(03/04/2012 14:31:53)

Silicon Valley 2012 : Delphix virtualise les bases de données

Parmi les tâches informatiques qui peuvent consommer beaucoup de temps, le clonage de base de données est un des problèmes récurrents dans les datacenters. Les tests et développements, l'entreposage de données, et le support, entre autres, demandent régulièrement une copie des bases de données en production. Et chaque fois, il est nécessaire de provisionner les ressources en serveur et en stockage pour héberger toutes ces copies de bases de données. En outre, les données deviennent obsolètes presque aussitôt avoir été dupliquées, et il peut être difficile ensuite de suivre les différentes évolutions des SGBD pour les supprimer ou les faire mettre à jour.

Fort de ce constat, la start-up Delphix, fondée par Jedidiah Yuehen en 2008, avance sa solution de virtualisation de bases de données. Avec le concours des fonds d'investissement Greylock Partners et Lightspeed Venture Partners (à hauteur de 20 millions de dollars), Jed Yueh a développé une idée qui a jailli suite au rachat de sa précédente start-up Avamar (spécialisée dans la déduplication de données) par EMC en 2006. « Les bases de données ont une structure unique avec des blocs souvent uniques. La déduplication de ces données nécessite une approche particulière, car il est nécessaire de garder l'application en production ».

Filtrage et compression des données

Delphix a développé un outil capable de virtualiser les bases de données. En quelques mots, le logiciel crée un clone complet en lecture / écriture des bases de données Oracle 9, 10 et 11 en production. Ces clones sont générés automatiquement à partir des clichés et les fichiers journalisés, et ils ont besoin de moitié moins de l'espace de stockage que la base de données primaire (de 5 à 2,5 To), selon Jed Yueh. Grâce à une forme de déduplication, au filtrage et surtout à la compression, une seule base virtualisée peut alimenter plusieurs usages. « On ne détruit pas de données, elles sont partagées entre les bases virtuelles ». Seule limite, il est encore impossible de prendre certaines parties la base, il est nécessaire de virtualiser l'ensemble. « La création de bases de données virtuelles ne nécessite pas de capacité de stockage supplémentaire et tout est entièrement automatisé par le biais du serveur Delphix, les développeurs peuvent faire tourner des bases de données virtuelles à la volée et créer des environnements de bases de données avec peu ou pas d'investissements supplémentaires dans les infrastructures » précise M. Yueh. La base de données virtuelle se synchronise régulièrement avec la base de données primaire, avec un décalage de 1 à 3 secondes; les données modifiées sont envoyées progressivement à la base de données virtuelle, afin de réduire la charge de travail de l'infrastructure.

[[page]]

Dans l'ensemble, Delphix vise à consolider les ressources des centres de calcul et accélérer les tests, les cycles de développement, de déploiement, de gestion et de mise à niveau d'applications. « Notre outil cible les données dans les databases comme VMware le fait pour les processeurs », nous a indiqué le dirigeant.

En outre, Delphix sécurise les portails en self-service en permettant de définir des politiques IT et de stockage afin que les utilisateurs puissent s'auto-allouer des ressources. Par exemple, si un développeur a besoin d'une copie de la base de données ERP de l'entreprise, il peut lui-même la virtualiser. Delphix garantit un accès rapide et la fraîcheur des données, et lorsque le projet est terminé, la base de données virtuelle peut être supprimée et les ressources réabsorbées.

Support à venir de SQL Server

Jed Yueh a souligné que, le point le plus important, est que le serveur Delphix (l'application doit être installé sur un serveur avant la réplication de la SGBD) garantit l'exactitude des données et réduit les risques dans le l'environnement de production, puisque les utilisateurs peuvent créer et récupérer les bases de données virtuelles à partir de n'importe quel point de sauvegarde dans le temps. Il est même possible de comparer plusieurs points de sauvegarde dans le temps. De plus, l'utilisation de « vraies » répliques des bases de données augmente la qualité et la stabilité de l'application en production. « On fournit les données à la database et elle fait ce qu'elle a à faire. On ne se coupe pas des applications ».
Aujourd'hui limité aux produits d'Oracle, Delphix s'ouvrira prochainement à DB2 et SQL Server (au troisième trimestre pour être plus précis) et des applications comme Sharepoint ou Exchange pourraient également être concernées.

Basée à Menlo Park, dans le même immeuble qu'Arista Networks, Delphix posséde à ce jour 75 personnes et réunit parmi ses petits investisseurs des noms aussi prestigieux qu'Andy Bechtolsheim, co-fondateur de Sun, et David Cheriton de Stanford.

 

(...)

(03/04/2012 12:17:16)

Apache fait passer Sqoop pour Hadoop au rang de projet prioritaire

Alors que de plus en plus d'entreprises utilisent Hadoop pour analyser de grosses quantités d'information, elles réalisent qu'elles ont peut-être aussi besoin de transférer des données entre Hadoop et leurs bases de données existantes, leurs systèmes d'entreposage et d'autres banques de données. Des développeurs bénévoles à l'origine d'un nouveau connecteur pour accélérer ces échanges de données viennent de gagner l'adhésion complète de l'Apache Software Foundation (ASF). En effet, la fondation, qui soutient le développement de logiciels Open Source, a promu cet outil, dénommé Sqoop, qui permet d'accélérer le transfert de données, au rang de projet prioritaire.

En tant que « Top Level Project » (TLP), Sqoop bénéficiera de tout ce que peut offrir l'infrastructure  Apache, à savoir les listes de diffusion, un espace de travail collaboratif, l'aide juridique et un référentiel de code. Le statut TLP signifie également que le groupe de travail de Sqoop respecte les procédures et les principes de la Fondation en matière de développement et de soutien logiciel.

Transférer rapidement des données traitées par Hadoop 

Sqoop fournit un moyen rapide de transférer de grandes quantités de données entre la plate-forme de traitement de données Hadoop et les SGBD relationnelles, les systèmes d'entreposage et d'autres banques de données non-relationnelles. Il fonctionne avec la plupart des bases de données relationnelles actuelles, comme MySQL, PostgreSQL, Oracle, Microsoft SQL Server et IBM DB2, ainsi que les applications d'entreposage de données.

 « Sqoop a été conçu pour transférer rapidement des milliards de lignes dans Hadoop grâce à une technologie basée sur des fonctions parallèles, » a expliqué dans un communiqué Arvind Prabhakar, chef du projet Sqoop auprès de l'Apache Software Foundation. Sqoop place les données, soit directement dans un espace de stockage régi par le système Hadoop Distributed File (HDFS), ou peut les orienter vers d'autres applications Hadoop comme le système de gestion de base de données non relationnelle distribuée HBase et son stockage structuré pour les grandes tables, ou le logiciel d'analyse de données Hive de Hadoop.

Déjà adopté par des entreprises

Actuellement en version 1.4, Sqoop a déjà été adopté en production par un certain nombre de boutiques en ligne utilisant Hadoop. Par exemple, le vendeur en ligne Coupons.com utilise le logiciel pour échanger des données entre Hadoop et l'appliance d'entrepôt de données IBM Netezza. L'entreprise peut envoyer des requêtes vers ses bases de données structurées et transmettre les résultats vers Hadoop par l'intermédiaire de Sqoop. L'entreprise privée d'éducation Apollo Group utilise également le logiciel non seulement pour extraire des données de ses bases de données, mais aussi pour injecter des résultats depuis Hadoop vers ses SGBD relationnelles.

En 2011, Sqoop était entré dans le groupe des incubateurs de projets de la Fondation Apache. Fondée en 1999, l'organisation sans but lucratif prend en charge plus de 150 projets Open Source, dont certains logiciels largement répandus comme le serveur Web Apache, le serveur d'application Tomcat, la base de données Cassandra, le moteur de recherche Lucene, le langage de programmation Perl et la plate-forme d'analyse de données Hadoop. Facebook, Google, IBM, Hewlett-Packard, Microsoft, VMware, et Yahoo comptent au nombre des entreprises qui soutiennent financièrement l'ASF.

(...)

(02/04/2012 17:22:07)

Dossier : le décisionnel à l'heure du big data

Comment gérer et traiter des quantités impressionnantes de données structurées et non structurées dans les entreprises à moyen et long terme ? Tel est le défi des services informatiques. Ces grands volumes de données, plus connus sous le nom de big data n'ont peu ou pas encore été pris en compte par la majorité des entreprises mais les besoins se font ressentir. «Même si les technologies autour du big data sont prématurées, cela amène les fournisseurs, les intégrateurs et les clients à réfléchir sur ce qu'ils doivent faire demain pour analyser et traiter les forts volumes de données » indique François Guérin, responsable avant-ventes chez Sybase.

Et pour cause, les entreprises sont en phase de réflexion et se posent souvent cette question de savoir comment intégrer le concept du big data dans le système d'information existant. Car c'est bien là le problème, les solutions actuelles déployées dans les entreprises ne sont pas forcément adaptées à traiter toutes ces données et, qui plus est, en temps réel, surtout dans les années à venir. Pis encore, les compétences se font rares dans ce nouveau domaine...Quoi qu'il en soit, du côté des fournisseurs, on s'active autour des outils et de solutions dédiés au big data. Explications. (...)

(26/03/2012 08:41:00)

Grand emprunt : 25 millions d'euros iront au Big Data

Les Investissements d'avenir (ex Grand emprunt) concernent de plus en plus le numérique. Le dernier appel à projets lancé s'intéresse au big data avec une enveloppe de 25 millions d'euros. Le Gouvernement veut soutenir à la fois des projets de R&D et une ou deux plate formes d'expérimentation. Cet appel à projets s'intègre dans le volet cloud computing des investissements  d'avenir. Il sera clos le 13 juillet prochain à midi.

- Le cahier des charges de cet appel à projets
(...)

(09/03/2012 10:31:16)

D2B ajoute Sybase SQL Anywhere à son offre infrastructure

Le grossiste D2B a signé un accord de distribution avec Sybase pour commercialiser SQL Anywhere, une suite logicielle qui intègre des technologies de gestion, de synchronisation et d'échange de données pour développer et déployer des applications de base de données dans des environnements distants et mobiles.

Jusqu'ici, la filiale de SAP commercialisait sa solution en direct auprès des revendeurs. En la confiant à D2B, elle permet au grossiste, très présent sur les marchés du stockage et de la sécurité, de concrétiser sa volonté d'élargir son offre dans le domaine des outils d'infrastructures. Jusqu'ici, celle-ci ne comportait que la solution Diskeeper (défragmentation de disques durs) référencée il y a moins d'un an par D2B (...)

(08/03/2012 15:35:50)

Le big data ne se résume pas au décisionnel explique le CTO d'Amazon

Le discours de Werner Vogels, CTO d'Amazon, lors du Cebit 2012 à Hannovre, était intitulé « données sans limites ». Il a encouragé les entreprises à réfléchir sur la situation dans son ensemble. « Le big data, ce n'est pas seulement de l'analytique, c'est un sujet plus vaste. Quand vous pensez à des solutions big data, vous devez réfléchir aux différentes étapes : collecter, stocker, organiser, analyser et partager » a souligné le dirigeant. Il ajoute que « pour tirer pleinement parti des grands volumes de données et disposer d'un avantage concurrentiel, l'innovation doit se faire dans l'ensemble de ces domaines et pas seulement sur le décisionnel ».

Amazon a travaillé en interne des solutions big data et analytiques pour ensuite cibler certains clients et leur apporter des recommandations pertinentes en la matière. « Qu'est-ce nous avons appris à travers cette expérience ? Le « très grand, c'est le mieux » souligne Werner Vogels et d'ajouter « quand des erreurs ont a été commises, c'est qu'il n'y avait pas suffisamment de données pour proposer une recommandation ».

Le dirigeant explique que la société s'est aussi appuyée sur son cloud AWS « qui va devenir le grand facilitateur de ce marché [big data] » et, de compléter ses propos, « vous disposerez ainsi de possibilités illimitées  pour stocker ou traiter les données ». Amazon Web Services propose des services qui peuvent aider les entreprises à collecter, stocker, organiser, analyser et partager leurs données, comme Direct Connect ou Import / Export par exemple. D'autres services peuvent accompagner le traitement des big data, comme Amazon Simple Storage, la base de données NoSQL DynamoDB et Elastic MapReduce basée sur Hadoop.

(...)

(07/03/2012 17:14:40)

Avec SQL Server 2012, Microsoft courtise le marché big data

La nouvelle version de la base de données relationnelle SQL Server 2012 de Microsoft doit permettre aux entreprises d'analyser de grandes quantités de données non structurées, une pratique connue sous le nom de big data et de plus en plus répandue. « Du fait de la baisse constante des coûts en matière de stockage et de calcul informatique, il devient de plus en plus intéressant pour les entreprises de stocker toutes leurs données », a déclaré Doug Leland, directeur général Business Platform Marketing Group de Microsoft. « Le défi est de savoir comment tirer parti de cette tendance. » Et de démocratiser l'usage d'Hadoop dans toutes les stacks de l'entreprise.

SQL Server 2012 est « une plate-forme de données moderne destinée aussi bien au traitement des données structurées traditionnelles, qu'à celui des grandes quantités de données non structurées », a ajouté Doug Leland. La base de données doit permettre « aux utilisateurs de coller au changement et d'évoluer au rythme de leurs besoins. » C'est la première mise à jour importante du produit depuis 2010, date de la sortie de SQL Server 2008 R2. Selon l'éditeur, cette version apporte des améliorations dans trois grands domaines : une meilleure préparation aux applications critiques, de meilleurs outils de business intelligence (BI) et une plus grande compatibilité avec le cloud computing. En outre, selon Microsoft, avec cette mise à jour, SQL Server devient un outil de premier ordre pour l'analyse des données à grande échelle. SQL Server peut agir comme lien entre les plates-formes de données non structurées comme Hadoop et les outils BI plus traditionnels utilisés dans l'entreposage de données et proposés par Microsoft. Les clients qui combineront SQL Server avec Hadoop « pourront tirer des analyses de ces données, notamment avec des outils comme Excel PowerPivot et Power View inclu avec SQL Server 2012 » a ajouté le DG de Microsoft.

Une association étroite avec Hadoop

SQL Server 2012 a été modifié pour fonctionner avec l'intégration de la distribution Apache Hadoop dans Windows Azure. En octobre dernier, l'entreprise de Redmond avait lancé une déclinaison d'Hadoop sur son cloud en version de test limitée (Hadoop On Azure). Pour la sortie de SQL Server 2012, ce service Hadoop On Azure a été élargi à 2 000 noeuds, contre 400, lors du lancement initial, nous a indiqué Jean-Marc Monfort, chef de produit SQL Server chez Microsoft France. L'entreprise prévoit de livrer une version complète de son service d'ici la fin du mois de juin. « Les clients n'auront pas à assumer le coût de la mise en oeuvre de Hadoop dans le datacenter. Ils peuvent s'abonner à l'offre de service géré», a ajouté Doug Leland. Microsoft prévoit également de fournir un connecteur qui permettra à SQL Server d'accéder à Hadoop via Windows Server 8. « Nous travaillons également sur un serveur de distribution Hadoop pour Windows Server, que les clients pourront utiliser dans leur propre centre de calcul, » a ajouté le DG de Microsoft.

Parmi les premiers utilisateurs de SQL Server 2012 pour le traitement de grandes quantités de données, on trouve le service Klout qui mesure l'influence sur les réseaux sociaux. Klout utilise Hadoop pour analyser environ 350 Go de données issues des réseaux sociaux chaque jour. L'entreprise utilise chaque jour Microsoft SQL Server Analysis Services (AS) pour préparer 600 millions de lignes de données tirées de la composante Hive d'Hadoop et les intégrer dans ses requêtes. « Nous utilisons AS comme moteur de requête analytique, car Hive et Hadoop sont moins performants pour effectuer des requêtes interactives variables », a déclaré David Mariani, vice-président de l'ingénierie chez Klout. « Microsoft SQL Server Analysis Services permet de traiter des milliards de lignes de requêtes en moins de 10 secondes et de tester un grand nombre de scénarios très rapidement. »
Et parmi les premiers utilisateurs de la préversion de SQL Server 2012 en France, Jérôme Trédan, directeur des produits serveurs et plateformes cloud computing chez Microsoft France, nous a signalé Areva et Orange.

Une solution disponible le 2 avril

Mais tout le monde n'est pas d'avis que SQL Server pourra s'imposer comme un outil d'analyse de big data incontournable. « Cette version permet à Microsoft de se mettre à niveau dans le big data, » a déclaré Curt Monash, de Monash Research. SQL Server 2012 sera sans doute bien accueilli chez les vendeurs de solutions Microsoft, où le personnel IT comprend déjà comment travailler avec les technologies Microsoft. Pour les autres, il n'y a guère que quelques fonctionnalités uniques qui font la différence avec les bases relationnelles non-Microsoft. « Microsoft SQL Server est adapté si vous n'avez pas peur de vous trouver enfermé dans la pile Microsoft, » a estimé Curt Monash.

Le 8 mars, Microsoft mettra en ligne un tutoriel expliquant aux utilisateurs potentiels comment se familiariser avec les nouvelles fonctionnalités de SQL Server 2012. La nouvelle version sera disponible à l'achat à partir du 2 avril.

(...)

Les 10 documents suivants >