Flux RSS
Architecture logicielle

2077 documents trouvés, affichage des résultats 21 à 30.
< Les 10 documents précédents | Les 10 documents suivants > |
(08/03/2012 15:35:50)
Le big data ne se résume pas au décisionnel explique le CTO d'Amazon
Le discours de Werner Vogels, CTO d'Amazon, lors du Cebit 2012 à Hannovre, était intitulé « données sans limites ». Il a encouragé les entreprises à réfléchir sur la situation dans son ensemble. « Le big data, ce n'est pas seulement de l'analytique, c'est un sujet plus vaste. Quand vous pensez à des solutions big data, vous devez réfléchir aux différentes étapes : collecter, stocker, organiser, analyser et partager » a souligné le dirigeant. Il ajoute que « pour tirer pleinement parti des grands volumes de données et disposer d'un avantage concurrentiel, l'innovation doit se faire dans l'ensemble de ces domaines et pas seulement sur le décisionnel ».
Amazon a travaillé en interne des solutions big data et analytiques pour ensuite cibler certains clients et leur apporter des recommandations pertinentes en la matière. « Qu'est-ce nous avons appris à travers cette expérience ? Le « très grand, c'est le mieux » souligne Werner Vogels et d'ajouter « quand des erreurs ont a été commises, c'est qu'il n'y avait pas suffisamment de données pour proposer une recommandation ».
Le dirigeant explique que la société s'est aussi appuyée sur son cloud AWS « qui va devenir le grand facilitateur de ce marché [big data] » et, de compléter ses propos, « vous disposerez ainsi de possibilités illimitées pour stocker ou traiter les données ». Amazon Web Services propose des services qui peuvent aider les entreprises à collecter, stocker, organiser, analyser et partager leurs données, comme Direct Connect ou Import / Export par exemple. D'autres services peuvent accompagner le traitement des big data, comme Amazon Simple Storage, la base de données NoSQL DynamoDB et Elastic MapReduce basée sur Hadoop.
(...)
Avec SQL Server 2012, Microsoft courtise le marché big data
La nouvelle version de la base de données relationnelle SQL Server 2012 de Microsoft doit permettre aux entreprises d'analyser de grandes quantités de données non structurées, une pratique connue sous le nom de big data et de plus en plus répandue. « Du fait de la baisse constante des coûts en matière de stockage et de calcul informatique, il devient de plus en plus intéressant pour les entreprises de stocker toutes leurs données », a déclaré Doug Leland, directeur général Business Platform Marketing Group de Microsoft. « Le défi est de savoir comment tirer parti de cette tendance. » Et de démocratiser l'usage d'Hadoop dans toutes les stacks de l'entreprise.
SQL Server 2012 est « une plate-forme de données moderne destinée aussi bien au traitement des données structurées traditionnelles, qu'à celui des grandes quantités de données non structurées », a ajouté Doug Leland. La base de données doit permettre « aux utilisateurs de coller au changement et d'évoluer au rythme de leurs besoins. » C'est la première mise à jour importante du produit depuis 2010, date de la sortie de SQL Server 2008 R2. Selon l'éditeur, cette version apporte des améliorations dans trois grands domaines : une meilleure préparation aux applications critiques, de meilleurs outils de business intelligence (BI) et une plus grande compatibilité avec le cloud computing. En outre, selon Microsoft, avec cette mise à jour, SQL Server devient un outil de premier ordre pour l'analyse des données à grande échelle. SQL Server peut agir comme lien entre les plates-formes de données non structurées comme Hadoop et les outils BI plus traditionnels utilisés dans l'entreposage de données et proposés par Microsoft. Les clients qui combineront SQL Server avec Hadoop « pourront tirer des analyses de ces données, notamment avec des outils comme Excel PowerPivot et Power View inclu avec SQL Server 2012 » a ajouté le DG de Microsoft.
Une association étroite avec Hadoop
SQL Server 2012 a été modifié pour fonctionner avec l'intégration de la distribution Apache Hadoop dans Windows Azure. En octobre dernier, l'entreprise de Redmond avait lancé une déclinaison d'Hadoop sur son cloud en version de test limitée (Hadoop On Azure). Pour la sortie de SQL Server 2012, ce service Hadoop On Azure a été élargi à 2 000 noeuds, contre 400, lors du lancement initial, nous a indiqué Jean-Marc Monfort, chef de produit SQL Server chez Microsoft France. L'entreprise prévoit de livrer une version complète de son service d'ici la fin du mois de juin. « Les clients n'auront pas à assumer le coût de la mise en oeuvre de Hadoop dans le datacenter. Ils peuvent s'abonner à l'offre de service géré», a ajouté Doug Leland. Microsoft prévoit également de fournir un connecteur qui permettra à SQL Server d'accéder à Hadoop via Windows Server 8. « Nous travaillons également sur un serveur de distribution Hadoop pour Windows Server, que les clients pourront utiliser dans leur propre centre de calcul, » a ajouté le DG de Microsoft.
Parmi les premiers utilisateurs de SQL Server 2012 pour le traitement de grandes quantités de données, on trouve le service Klout qui mesure l'influence sur les réseaux sociaux. Klout utilise Hadoop pour analyser environ 350 Go de données issues des réseaux sociaux chaque jour. L'entreprise utilise chaque jour Microsoft SQL Server Analysis Services (AS) pour préparer 600 millions de lignes de données tirées de la composante Hive d'Hadoop et les intégrer dans ses requêtes. « Nous utilisons AS comme moteur de requête analytique, car Hive et Hadoop sont moins performants pour effectuer des requêtes interactives variables », a déclaré David Mariani, vice-président de l'ingénierie chez Klout. « Microsoft SQL Server Analysis Services permet de traiter des milliards de lignes de requêtes en moins de 10 secondes et de tester un grand nombre de scénarios très rapidement. »
Et parmi les premiers utilisateurs de la préversion de SQL Server 2012 en France, Jérôme Trédan, directeur des produits serveurs et plateformes cloud computing chez Microsoft France, nous a signalé Areva et Orange.
Une solution disponible le 2 avril
Mais tout le monde n'est pas d'avis que SQL Server pourra s'imposer comme un outil d'analyse de big data incontournable. « Cette version permet à Microsoft de se mettre à niveau dans le big data, » a déclaré Curt Monash, de Monash Research. SQL Server 2012 sera sans doute bien accueilli chez les vendeurs de solutions Microsoft, où le personnel IT comprend déjà comment travailler avec les technologies Microsoft. Pour les autres, il n'y a guère que quelques fonctionnalités uniques qui font la différence avec les bases relationnelles non-Microsoft. « Microsoft SQL Server est adapté si vous n'avez pas peur de vous trouver enfermé dans la pile Microsoft, » a estimé Curt Monash.
Le 8 mars, Microsoft mettra en ligne un tutoriel expliquant aux utilisateurs potentiels comment se familiariser avec les nouvelles fonctionnalités de SQL Server 2012. La nouvelle version sera disponible à l'achat à partir du 2 avril.
(...)(07/03/2012 10:18:28)Le Louvre se dote d'un outil IBM pour gérer la maintenance du musée
IBM met son savoir-faire au service du musée du Louvre, dans le but de l'aider à mieux protéger encore ses oeuvres d'art, économiser l'énergie et rester toute l'année ouvert à ses millions de visiteurs. Avec des capteurs, des outils d'analyse en temps réel et autres outils connectés à internet, l'idée est de rendre le musée, le plus fréquenté au monde, "plus intelligent". "Ce n'est pas un travail, c'est une mission", explique à l'AFP un vice-président d'IBM, David Bartlett, surnommé "l'homme qui murmure à l'oreil des bâtiments" pour sa passion pour une meilleure gestion des immeubles. "Si on écoute un bâtiment de façon holistique, il y a des tas d'occasions d'améliorations", explique-t-il. "Le Louvre me dit qu'il y a tout un réseau complexe de systèmes à l'intérieur de systèmes".
Le Louvre, qui a conclu avec IBM un contrat pluriannuel d'un montant non précisé révélé lundi par le groupe informatique, réalise en moyenne 65 000 travaux de réparation ou de maintenance par an dans ses plus de 60 000 mètres carrés d'espace d'expositions permanentes, qui parfois exigent la fermeture de certaines salles ou galeries.
Assurer l'entretien pendant les visites
"Le fait qu'il abrite des milliers d'oeuvres d'art irremplaçables qui doivent être préservées pendant qu'on essaie d'accueillir des millions de visiteurs chaque année, représente une difficulté supplémentaire", souligne le responsable du département de maintenance informatique du musée, Metin Pelit.
Dans le cadre de son initiative "Smarter Buildings" ("des bâtiments plus intelligents") lancée par IBM en février 2010, le groupe new-yorkais a déjà installé son logiciel Maximo pour coordonner les opérations de nettoyage, d'entretien, de chauffage, d'éclairage, et même de verrouillage des plus de 2.500 portes qu'abrite le musée.
"On a beau concevoir la meilleure maison possible en termes d'économies d'énergie, si l'adolescent de la maison laisse la porte ouverte, ça ruine tout", fait valoir M. Bartlett - qui note au passage que le Louvre doit aussi veiller aux questions d'humidité.
Remplacer un système papier
Avant la solution proposée par d'IBM, le personnel du Louvre s'en remettait aux papiers et formulaires pour gérer l'entretien. Mais "gérer les visites de réparations, de nettoyage et de maintenance qui permettent de préserver les locaux et les oeuvres d'art, tout en gardant les galeries accessibles, c'est une tâche dantesque", fait valoir Metin Pelit. "Grâce au logiciel IBM, nous sommes capables de visualiser toute l'infrastructure, et de prendre de meilleures décisions, mieux informées sur la façon et le moment de résoudre un problème, ou d'agir préventivement pour éviter un problème que sinon nous n'aurions pas vu venir".
Des capteurs permettent par exemple de repérer des filtres ayant besoin d'être changés, ou des moteurs en bout de course. Le logiciel tient à jour une liste d'intervenants spécialisés pour réaliser les travaux requis. Alors que ce partenariat n'en est qu'à ses débuts, IBM affirme avoir déjà permis au Louvre de réaliser 40% d'économies d'énerge dans ses bâtiments anciens. "Le Louvre est maintenant en mesure d'ouvrir au public quotidiennement la majorité de ses galeries, tout en réduisant ses coûts", selon M. Pelit.
Le programme réalisé par IBM au Louvre est l'un des plus ambitieux de l'initiative "Smarter Buildings", également retenue par l'université Tulane à La Nouvelle-Orléans, ou encore par le gigantesque hôtel-casino The Venetian à Las Vegas.
(...)(05/03/2012 13:54:47)PHP 5.4 : pas de changement radical, mais plus de performances et de raffinement
La mise à jour du PHP, l'un des langages les plus utilisés pour la construction de sites web, comporte un certain nombre de modifications qui facilitent le développement et améliorent les performances. « Globalement, ces nouvelles fonctionnalités ne viennent pas modifier radicalement le langage, mais elles apportent un certain raffinement », a déclaré Zeev Suraski, l'un des principaux contributeurs au PHP, par ailleurs CTO de Zend Technologies, un éditeur de logiciel PHP. « Ce que l'on pouvait faire auparavant, on peut toujours le faire, mais plus facilement, et de manière plus élégante, » a-t-il ajouté.
Pour les développeurs, la syntaxe PHP a été simplifiée pour faciliter la convivialité. Un nouveau mécanisme, appelé « Traits », permet aux développeurs de réutiliser le code. La syntaxe d'un tableau « array » a elle aussi été simplifiée. D'autres améliorations permettent également au PHP de mieux travailler avec le format d'échange de données JSON (JavaScript Object Notation). La version 5.4 inclut aussi le support natif pour les langues asiatiques, si bien que les développeurs n'ont plus besoin de compiler une version spéciale du PHP pour offrir un contenu dans ces langues.
De meilleures performances
Un gros travail a également été accompli en matière de performances. Ainsi, suite à la réécriture de quelques lignes de code, le PHP peut maintenant prendre en charge 40% d'utilisateurs en plus sur un même serveur. « Nous avons réduit la consommation de mémoire vive. Sur un site web très visité, tout dépend de la densité et du nombre de requêtes par seconde que peut supporter le serveur. Typiquement, le vrai facteur limitant, c'est la mémoire. En réduisant la consommation de mémoire, on peut augmenter la densité,» a expliqué le CTO de Zend Technologies.
Dans le monde, environ 5 millions de développeurs utilisent le PHP, principalement pour la création de pages web offrant un contenu qui doit être régulièrement mis à jour ou modifié, mais aussi pour créer des applications web. Selon la dernière estimation mensuelle du Tiobe Group, le PHP est le sixième langage de programmation le plus couramment utilisé dans le monde.
Parallèlement à cette sortie, Zend a également livré la troisième version bêta de Zend Framework 2, laquelle inclut le support du PHP 5.4. Zend teste également un service PHP hébergé, appelé Zend Developer Cloud.
(...)(22/02/2012 15:38:07)Teradata va travailler avec Hortonworks sur Hadoop
L'intérêt croissant dans les entreprises pour le big data décisionnel amène des partenariats entre les fournisseurs de technologie spécialisés dans les bases de données traditionnelles et le framework java Open Source Apache Hadoop. Le dernier exemple en date est Teradata, qui a annoncé qu'il travaillerait à l'avenir avec Hortonworks pour livrer des produits et des services visant à aider les entreprises à construire de grandes plates-formes d'analyses de données basées sur la solution Hadoop. Basé à Sunnyvale en Californie, Hortonworks est une spin-off de Yahoo qui distribue et supporte une version commerciale de Hadoop.
Dans le cadre de ce partenariat, Teradata et Hortonworks déploieront conjointement des produits en associant leur ingénierie et leurs capacités de développement pour fournir une architecture de référence que les entreprises pourront utiliser pour comprendre les cas d'usage les plus courants de Hadoop, a déclaré sur un blog Arun Murthy, co-fondateur de Hortonworks. L'objectif sera ici d'aider les entreprises à utiliser Hadoop en conjonction avec leurs bases de données Teradata et l'outil d'analyse décisionnelle Aster Data (une récente acquisition de Teradata).
Associer les compétences particulières des deux entreprises
L'annonce entre Teradata et Hortonworks arrive moins d'un mois après qu'Oracle ait annoncé faire équipe avec la distribution rivale de Hortonworks, Cloudera, pour offrir des appliances dédiées aux big data. En octobre dernier, Microsoft a également indiqué qu'il travaillerait désormais avec Hortonworks sur une mise en oeuvre d'Apache Hadoop pour les plates-formes Windows Server et Windows Azure.
Ces partenariats sont dictés par l'intérêt croissant des entreprises pour les solutions Hadoop, une technologie qui permet de capturer et d'analyser rapidement de très grandes quantités de données structurées et non structurées. Et ce avec un coût beaucoup plus compétitif que les systèmes de gestion de bases de données traditionnels.
Développée à l'origine pour le web
La technologie Hadoop a été développée par Yahoo et, jusqu'à récemment, a été presque exclusivement utilisée par des géants du web. Au cours des 18 derniers mois cependant, un nombre croissant d'entreprises traditionnelles ont commencé à évaluer l'utilisation de Hadoop pour les médias sociaux, l'analyse des tendances, la détection des fraudes et la gestion des désabonnements. La principale demande allait vers des outils capables d'aider les entreprises à exploiter rapidement des solutions Hadoop, sans avoir à tout concevoir et tout construire eux-mêmes.
[[page]]
Un grand nombre des clients de Teradata, par exemple, sont susceptibles de s'appuyer sur ces technologies d'analyses de données si elles sont faciles à implémenter et à utiliser, a déclaré Tony Baer, analyste chez Ovum.
De nombreuses entreprises ont commencé à voir la valeur réelle de leurs données historiques, a-t-il dit. « Mais il peut devenir très couteux de traiter des pétaoctets de données sur une plate-forme Teradata [SGBDR]» a-t-il ajouté. « La solution Hadoop est beaucoup moins onéreuse. » Hadoop permet aux entreprises de recueillir, de stocker et d'affiner une grande variété d'informations, qu'ils peuvent ensuite déplacer vers une autre base de données pour analyse, a-t-il dit. De nombreuses entreprises ont également commencé à utiliser directement des applications d'analyse de données directement au-dessus de leurs environnements Hadoop, souligne-t-il.
« Les grands fournisseurs d'outils d'analyse n'ont certainement pas besoin d'avoir une distribution Hadoop, mais il est plus urgent d'avoir une stratégie Hadoop » conclut-il.
Microsoft réduit jusqu'à 75% le coût de SQL Azure
Les tarifs d'utilisation du service de base de données SQL Azure viennent d'être revus à la baisse par Microsoft. L'éditeur a également lancé une option pour ouvrir ce service aux clients souhaitant accéder à moins de 100 Mo. Steven Martin, directeur général, responsable de la planification pour Windows Azure, a communiqué la semaine dernière les prix révisés. Dans un billet, il indique que les utilisateurs vont bénéficier d'une économie de 48% à 75% pour les bases de données de plus de 1 Go (48% pour les bases de 5 Go tarifées 25,99 $ par mois contre 49,95 $ précédemment, 75% pour celles 25 Go, par exemple, désormais à 75,99 $ contre 299,97 $, ce qui, dans ce cas, met le Go à 3,04 $). Quant à l'option 100 Mo, elle permettra de commencer à utiliser SQL Azure pour la moitié du précédent coût, en fournissant malgré tout la totalité des fonctionnalités. Cela inclut la haute disponibilité, la tolérance aux pannes, le provisionning, l'évolutivité de la base, la connexion aux bases installées sur site et le SLA complet.
Ces deux modifications dans l'offre SQL Azure de Microsoft résultent des remarques communiquées par les utilisateurs et de l'évolution des modèles d'usages, explique Steven Martin. Au cours des dix-huit mois écoulés, deux usages se sont dégagés. En premier lieu, de nombreux projets démarrent modestement mais ils ont besoin de grossir rapidement. D'où la possibilité offerte d'accéder à des déploiements plus larges à moindre coût. « A mesure que votre base de données grossira, le prix par Go baissera de façon significative », assure le responsable de Microsoft. Deuxièmement, de nombre clients du cloud ayant des traitements plus légers veulent disposer d'une option peu coûteuse pour des usages modestes. « De la même façon que nous proposons une option de 150 Go pour les clients ayant des pré-requis élevés, nous étendons la palette de choix à l'autre bout du spectre avec une option de départ à 100 Mo », ajoute Steven Martin.
A partir de 3,54 euros par mois pour 100 Mo
La facturation de SQL Azure est calculée sur la base d'un tarif progressif, en fonction de la taille de la base de données. Cette dernière existe en deux éditions. L'édition Web prend en charge une base de données relationnelle T-SQL (Transact-SQL) de 5 Go maximum. L'édition Business va jusqu'à 150 Go. Le site Windowsazure.com/fr donne le détail de la tarification pour un paiement à l'utilisation. Une calculatrice en ligne permet de se faire immédiatement une idée du coût en fonction du nombre de Go consommé. Il existe aussi un tarif d'abonnement de six mois(*).
En déplaçant le curseur de la calculatrice, on connaît le prix du service au Go consommé, ci-dessus 120,45 euros pour 94 Go par mois.
A l'utilisation, le prix de SQL Azure, par base de données et par mois, démarre à 3,5425 euros par mois jusqu'à 100 Mo. Il s'élève à 7,085 euros entre 100 Mo et 1 Go. Entre 1 Go et 10 Go, l'utilisation de SQL Azure est facturée 7,085 euros pour le premier Go et 2,834 euros pour chaque Go supplémentaire(**). Ainsi, pour une base de données de 4,4 Go utilisée une journée, il en coûtera 0,5944 euros au client.
(*) L'abonnement de six mois à SQL Azure coûte 56,729 euros pour une unité de base, ce qui correspond en fait à une valeur de 70,92 euros sur la base de données Business Edition lorsque celle-ci est facturée à l'utilisation. Ce service s'adresse à des utilisateurs qui démarrent ou qui ont des besoins réduits en taille de base. Pour les entreprises plus consommatrices, Microsoft propose un autre abonnement, annuel cette fois, à partir de 10 000 euros, explique Julien Lesaicherre, de Microsoft France. Cela correspond à une utilisation pré-payée que l'entreprise consommera comme elle l'entend, au rythme choisi.
(**) Entre 10 Go et 50 Go, il en coûte 32,5906 euros pour les 10 premiers Go, puis 1,417 euros pour chaque Go. Enfin, au-delà, les 50 premiers Go reviennent à 89, 2699 euros, puis à 0,7085 euros pour chaque Go supplémentaire. (...)
Mozilla va adapter Firefox à l'interface Metro de Windows 8
C'est le premier éditeur de navigateur, concurrent de Microsoft, à s'engager publiquement à sortir une version pour l'interface Metro de Windows 8. Microsoft avait déclaré qu'il livrerait son navigateur Internet Explorer 10 (IE10) en version desktop classique et pour Metro en même temps que Windows 8 et Windows sur ARM (WOA). Metro, c'est le nom que Microsoft donne à son interface tactile située au coeur des prochains OS. Pour ce qui est de Windows 8, le futur OS pourra exécuter Metro et des applications Windows classiques 32 et 64-bits. Mais en ce qui concerne sa déclinaison sur ARM, ce système sera uniquement capable de faire tourner des applications tierces conçues spécifiquement pour Metro.
Dans la mise à jour de sa feuille de route 2012 publiée dimanche dernier, Mozilla a déclaré qu'il allait élaborer une version test de Firefox sur Metro. Cette démonstration de faisabilité est une étape importante sur la voie d'un prototype pleinement fonctionnel. « Ce n'est pas une version alpha ou bêta. Elle doit démontrer le bon fonctionnement de Firefox sous Windows 8 dans l'interface Metro, » a écrit Asa Dotzler, directeur produit de Firefox, dans un article sur la feuille de route. Actuellement, Mozilla prévoit d'effectuer cette évaluation au cours du second trimestre 2012. Les versions alpha et bêta du navigateur devraient se succéder entre juillet et décembre. « La version alpha va permettre de tester la phase d'installation et les fonctionnalités de base de la navigation, et la version bêta comportera toutes les fonctionnalités d'une future version 1.0, » a ajouté le directeur produit.
Utiliser le maximum de code existant
Dans un document de planification plus détaillée, Mozilla précise certains objectifs spécifiques concernant l'exécution de Firefox dans l'interface Metro. L'éditeur indique par exemple qu'il s'appuiera sur les bibliothèques existantes de Gecko, le moteur du navigateur Firefox, dans Windows 32-bits pour ne pas avoir à porter la plus grosse partie du code de son navigateur vers l'API WinRT. Cette dernière est le « Runtime Windows », le modèle de programmation dont Microsoft fait la promotion pour inciter à développer des applications Metro pour Windows 8. « Firefox sur Metro fonctionnera en mode plein écran avec une barre de menus Appbar contenant tous les contrôles de navigation courants (page précédente, recharger la page, etc,), la barre de recherche AwesomeBar, et des sortes d'onglets, » détaille le document.
Si les hypothèses de Mozilla sont correctes - c'est à dire qu'il pourra faire tourner Firefox sur Windows 8 dans Metro par l'intermédiaire des bibliothèques Gecko actuelles - son prochain navigateur ne fonctionnera que sous Windows 8, et non sous Windows On Arm. Mozilla a déjà consacré un nombre considérable de ressources pour adapter Firefox à Android. L'éditeur a aussi évoqué la création d'un système d'exploitation propriétaire basé sur le Web, du nom de « Boot to Gecko, » pour tablettes et smartphones. L'éditeur a précisé qu'il aurait une meilleure idée du travail à accomplir pour créer son Firefox pour Windows 8 quand Microsoft aura livré la version Consumer Preview de son OS, soit le 29 février. Quant à la firme de Redmond, elle a fait savoir que « les applications pour Metro ne seront distribuées que via son Windows Store. »
Graal : Un compilateur dynamique pour Java
Le projet Graal pour la mise en oeuvre d'un compilateur dynamique pour Java semble profiter d'une conjoncture favorable. Celui-ci pourrait produire un code d'une excellente qualité sans compromettre le temps de compilation, ni monopoliser trop de mémoire dans la machine virtuelle Java. Les participants au groupe de discussion OpenJDK - le groupe fonctionne par messagerie électronique - parmi lesquels on trouve des représentants d'Oracle, plaident en faveur du projet. Leur volonté : explorer l'utilisation d'un compilateur dynamique dans une machine virtuelle Java native comme HotSpot, ou méta-circulaire comme Maxine. Sur le site qu'Oracle réserve au projet Graal, on peut lire que la machine virtuelle Maxine est une plate-forme de prochaine génération écrite en Java, qu'elle est compatible avec des environnements de développement intégrés (IDE) Java modernes ainsi qu'avec le Java Development Kit classique, et qu'elle possède une architecture modulaire.
Le compilateur Graal, basé sur le code de Maxine, servirait de point de départ au projet de compilateur dynamique. « Ce qui est clair, c'est que Graal va profiter de la bonne capacité de compilation de Java », a déclaré Al Hilwa, analyste chez IDC. « Il existe un mouvement en faveur du mode natif, que l'on doit à bien des égards aux outils de développement iOS d'Apple, lesquels reposent sur un modèle de compilation en natif pour Objective-C. Pendant longtemps, la balance penchait plutôt du côté des langages pour machines virtuelles comme Java. Mais le succès des terminaux sous iOS a commencé à inverser la tendance. Dans ce contexte, Java doit améliorer ses performances pour les rapprocher de ce que l'on arrive à faire avec les compilateurs natifs, mais aussi évoluer en terme d'intégration avec du code natif. »
Un compilateur agnostique bytecode pour la JVM
Hari Gottipati, principal architecte Java de l'Apollo Group, une entité privée émanant de l'Université de Phoenix, a salué le compilateur Graal et les efforts accomplis par Oracle pour la JVM, ainsi que l'impact potentiel sur le codage Java. « Imaginez un codage en Java, une compilation avec un compilateur écrit en Java, enfin l'exécution par la machine virtuelle Java elle aussi écrite en Java - il y a du Java tout au long de la chaîne. C'est la voie d'une intégration parfaitement transparente entre l'application et la machine virtuelle », a déclaré Hari Gottipati, également membre du Groupe d'utilisateurs Phoenix Java. « Je suis sûr que toute la communauté Java va être très emballée par le projet. »
Lors du JVM Language Summit organisé par Oracle en juillet dernier, Graal a déjà fait l'objet d'une présentation intitulée « Graal, un Compilateur Agnostique Bytecode pour la JVM » par Thomas Wuerthinger, de Oracle Labs. En plus de réfléchir à Graal, Oracle travaille à faire converger la machine virtuelle Java JRockit avec HotSpot, tombé dans l'escarcelle d'Oracle lors du rachat de Sun début 2010. Ces travaux devraient normalement être complétés par la sortie d'un JDK 8 en 2013.
Test logiciel : l'outil gratuit ThreadFix agrège les données sur les vulnérabilités
Les développeurs en entreprise peuvent maintenant recourir à une application web Open Source pour centraliser les données sur les vulnérabilités des logiciels, à partir de différents outils d'analyse de code et de test. C'est en effet ce que permet ThreadFix en fournissant une vue agrégée de ces informations et des outils de reporting. L'outil permet de réduire le temps nécessaire au traitement des bugs, notamment pour les applications mobiles qui se multiplient.
La version bêta de ThreadFix est disponible via GoogleCode et s'accompagne de tutoriaux et diverses informations de support, signalent nos confrères de Network World. Elle se configure facilement pour importer les résultats de test et de scan à partir d'outils Open Source tels que Bugzilla (suivi de bugs) et Skipfish (pour tester la sécurité des applications web), ou de solutions commerciales comme Fortify, rachetée par HP, ou comme la gamme AppScan d'IBM.
ThreadFix est élaboré depuis deux ans par Denim Group, une société de développement de logiciels installée à San Antonio (Texas), spécialisée dans la mise au point d'applications sécurisées et dans les prestations de conseil associées. La société a conçu cet outil en interne pour combler un manque. Les équipes de développement de logiciels devaient s'appuyer sur différentes solutions de programmation et de sécurité, mais elles ne disposaient pas, bien souvent, d'une vue unique sur le type de vulnérabilités détectées, ni sur leur gravité et leur statut.
Des applications en ligne et mobiles qui évoluent rapidement
« Nous avions remarqué que même lorsque les équipes de développement se servaient de suites logicielles spécialisées sur la sécurité, elles le faisaient souvent de façon superficielle », explique Dan Cornell, co-fondateur de Denim Group en 2004. « Par exemple, elles peuvent occasionnellement recourir à des outils de balayage du code (scanning tools), mais elles ne répètent pas l'opération de façon régulière. Et la plupart des organisations n'ont pas standardisé leurs outils autour d'une solution unique. Elles utilisent de nombreux outils, de multiples langages et approches de développement ». Il en résulte, selon lui, un manque d'orientation stratégique autour de la sécurité du logiciel, les entreprises ne pouvant pas évaluer si leurs pratiques s'avèrent payantes à terme sur la réduction des vulnérabilités. Elles ne peuvent pas non plus comparer l'efficacité de ces pratiques avec les résultats obtenus par les entreprises appartenant au même secteur qu'elles.
Threadfix récupère les données depuis les différents outils exploitées, les agrège et permet aux développeurs et à leurs managers de les filtrer en fonction de certains critères. On peut aussi, par exemple, exporter des vulnérabilités de type injections de code SQL vers un outil de détection de bugs afin qu'une équipe travaille dessus. Threadfix fait ensuite remonter les résultats de l'analyse du code remise à jour, puis met en évidence les vulnérabilités rectifiées.
[[page]]
Créer une vue centralisée pour ce type d'informations est important pour les entreprises dans un contexte où les applications en ligne et mobiles évoluent de plus en plus vite et où non seulement les données des entreprises, mais aussi les informations confidentielles de millions de consommateurs se trouvent exposées.
De 70 à 100 jours avant qu'une faille soit corrigée
Les services d'analyse en ligne proposés par des sociétés comme Vericode et WhiteHat Security ont quantifié ce risque, rappelle John Dickson, un autre dirigeant de la société. « Quelques-unes des pires vulnérabilités peuvent rester ainsi 70 à 100 jours avant d'être patchées », selon lui. L'une des raisons à cela réside dans le fait que l'équipe qui se préoccupe du logiciel et l'équipe qui peut intervenir dessus appartiennent souvent à des organisations séparées et ne sont pas en mesure de se coordonner efficacement. L'interface utilisateur web de ThreadFix apporte une réponse à cela, estime John Dickson.
Un outil de scan peut livrer une longue liste de vulnérabilités. Tandis que ThreadFix divisera la liste en portions, filtrées par type de vulnérabilité ou en fonction de leur gravité par exemple. Les équipes de développement peuvent s'atteler à un groupe de problèmes identiques, ce qui peut les amener à trouver des réponses plus efficacement que si chacun de ces problèmes était confié à des développeurs distincts. « Cela semble simple, mais c'est en fait un problème important entre l'équipe qui s'occupe des vulnérabilités et de la sécurité d'une part et le groupe de développeurs d'autre part », considère Dan Cornell.
Calculer les temps moyen de correction
En centralisant ces données, les membres d'une équipe peuvent voir toutes les vulnérabilités d'une application, ou encore disposer d'un inventaire complet sur les logiciels. Elle pourra effectuer des corrélations sur les résultats des tests, constater si les vulnérabilités de code deviennent plus ou moins fréquentes, ou encore calculer le temps moyen nécessaire pour corriger un bug, par application ou par équipe de développement, afin de dégager une tendance dans le temps.
On peut télécharger ThreadFix gratuitement sur GoogleCode. On configure les groupes utilisateurs, par exemple les développeurs d'une application de e-commerce, ou bien les équipes en fonction de leur répartition géographique. Sur chaque groupe, on crée un enregistrement pour chaque application et on identifie les outils de scan et de suivi utilisés. On configure ThreadFix pour importer des données de chaque outil et le logiciel collecte, agrège et suit ces informations dans le temps. Un tutorial de démarrage fournit des indications pour la configuration initiale.
SAP adapte HANA, la base de données en mémoire, aux PME
Les PME vont disposer de la solution analytique haute performance de SAP. L'offre comprend une nouvelle édition Edge du logiciel ainsi que des outils analytiques sous HANA pour sa suite ERP (Enterprise Resource Planning) Business One. « Ces produits seront vendus par nos partenaires sur un marché où SAP compte plus de 96 000 clients, ce qui représente 79% de sa base client totale, » a déclaré Eric Duffaut, patron de la distribution mondiale de SAP, au cours d'une conférence téléphonique avec la presse et les analystes.
La technologie HANA consiste à traiter les données depuis la RAM au lieu de les écrire et de les lire sur des disques durs traditionnels, ce qui permet de meilleures performances. La base de données, qui sait gérer aussi bien les charges de travail décisionnelles que transactionnelles, est vendue sous forme d'appliance par un certain nombre de fournisseurs. « L'édition Edge de HANA est disponible. Elle est identique à la version Entreprise, » a déclaré Bobby Vetter, vice-président senior, SAP, Ecosystem & Channels Readiness. « L'édition Edge aura aussi le même calendrier de sortie que l'édition Entreprise, » a t-il ajouté. Cependant, la quantité de RAM des appliances HANA Edge sera plafonnée et moins élevée. Celles-ci pourront également être vendues en bundle avec la suite logicielle BusinessObjects Edge BI (business intelligence) de SAP.
Comme le précise SAP dans un communiqué, l'offre d'analytiques pour Business One, son application de gestion intégrée, est susceptible de répondre à tous les besoins « à petite échelle. » Celle-ci s'appuie sur une application SAP basée sur HANA facile à utiliser et intégrant des processus essentiels, notamment pour le reporting « avec Crystal Reports, lequel génère en temps réel des rapports complets à partir de données actualisées. »
Pas de prix dévoilé et une montée en charge progressive
Le produit doit entrer dans sa phase de montée en charge ou « ramp-up» (un terme utilisé par SAP pour désigner le lancement de programmes destinés aux « early adopters) d'ici la fin du mois de février. La diffusion générale est prévue plus tard cette année. Bobby Vetter et Eric Duffaut n'ont pas voulu donner de détails sur le prix des produits, mais tous deux ont souligné que leur coût sera adapté. « Nous savons que ce marché est sensible à la question du prix, » a déclaré Eric Duffaut en ajoutant que « le prix sera juste. »
HANA est disponible pour tous depuis juin dernier. Depuis cette date, SAP est resté très discret sur sa technologie et sur sa feuille de route technique. Le mois dernier, Vishal Sikka, CTO et membre exécutif du Conseil d'administration de SAP, a révélé que l'entreprise avait l'intention d'utiliser le support HANA pour faire tourner certains modules de sa Business Suite phare d'ici à la fin de cette année. Dans le futur, HANA devrait aussi servir de base à une prochaine génération d'architecture logicielle pour les produits de l'éditeur allemand.
L'an dernier, les ventes de HANA ont atteint plus de 160 millions d'euros. « Dans l'histoire de SAP, c'est le produit qui affiche la plus forte croissance, » a déclaré l'entreprise.
< Les 10 documents précédents | Les 10 documents suivants > |