Flux RSS

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

108538 documents trouvés, affichage des résultats 7671 à 7680.

< Les 10 documents précédentsLes 10 documents suivants >


(15/06/2010 17:51:07)

«L'effort de recherche de SAP est très important comparé aux ratios habituels»

Basé en France, à Levallois Perret, Hervé Couturier est directement rattaché au directeur technique de la société, Vishal Sikka (basé à Palo Alto), sous la responsabilité de Jim Hagemann Snabe, le co-PDG qui supervise le développement des produits.

LeMondeInformatique.fr : Depuis l'automne 2008, vous pilotez les équipes de développeurs travaillant sur le portefeuille d'applications Business Objects et sur la plateforme d'intégration SAP NetWeaver. Qu'est-ce qui va changer avec vos nouvelles attributions ?

Hervé Couturier, vice-président exécutif Technology group de SAP : Exception faite des couches basses de NetWeaver, plus précisément de la partie serveur d'applications que je ne superviserai plus, le périmètre de mes attributions est maintenu. Les équipes de développement de Business Objects et des autres couches de NetWeaver restent sous ma responsabilité. Mais j'ai récupéré en plus la partie recherche qui rassemble à peu près 450 personnes. C'est un effectif très important quand on le compare aux ratios habituels. Chez Business Objects, nous avions trois personnes dans ce domaine pour un effectif total de plus de 6 000 personnes. Là, nous sommes 450 alors que SAP compte 48 000 collaborateurs. Il s'agit donc d'un très gros effort de recherche.

Malgré cette prise de fonction sur la recherche, vous restez donc dans l'opérationnel ?

J'ai une position assez unique car je crois que c'est la première fois que l'on a quelqu'un qui est, en même temps, responsable de la recherche et de la livraison de logiciels. WebIntelligence, Explorer, Crystal Reports... sont des produits que je dois livrer pour le portefeuille d'applications décisionnelles, mais également Composition Environment, ou encore Process Integration, sur NetWeaver. Et je couvre en plus, maintenant, la partie recherche. J'ai donc vraiment un pied dans les deux mondes.

Avant sa restructuration en février dernier, SAP s'était vu reprocher de ne pas suffisamment innover. Depuis, l'innovation est devenu l'un des mots d'ordre des deux co-dirigeants, Jim Hagemann Snabe et Bill McDermott. Considérez-vous effectivement que la société péchait dans ce domaine ?

Je crois que c'est une des raisons, effectivement, pour lesquelles on m'a demandé de reprendre ce job. Parce qu'en toute humilité, je crois qu'avec les équipes que je pilote, nous avons eu tout de même de bons résultats dans la mise à disposition de nouveaux produits sur le marché. Au cours de deux dernières années, après l'acquisition par SAP, nous avons sorti BI OnDemand, BI sur mobile, Explorer et StreamWork, ce dernier ayant été livré en disponibilité générale en mai. Soit, en deux ans, dans le domaine des outils décisionnels et de collaboration, quatre nouveaux produits qui génèrent du revenu.

Lire la suite de cette interview dans la rubrique Entretien

Illustration : Hervé Couturier, vice-président exécutif Technology group de SAP (Crédit photo : SAP)

(...)

(15/06/2010 16:45:59)

Le choix du modèle SaaS : une logique à bien évaluer, conseille Gartner

Gartner suggère aux entreprises de définir, ou de redéfinir, soigneusement leurs besoins logiciels à la lumière de l'expérience acquise avec les solutions actuellement disponibles sous forme de service (SaaS). « En 2009, les applications en mode SaaS ont représenté 3,4% des dépenses des entreprises, contre 2,8% en  2008 », évalue David Cearley, vice-président de Gartner. D'après le cabinet, le marché mondial du SaaS devrait peser quelque 8,8 milliards de dollars d'ici à la fin de l'année. Actuellement, la plupart des dépenses en solutions SaaS concernent la gestion  de contenu, les outils de collaboration et de communication et la gestion de la relation client (CRM). Des domaines qui représentaient à eux seuls 65% du marché mondial des logiciels d'applications d'entreprise en 2009.

Limiter les abonnements souscrits et non utilisés

Pour Gartner, certains travers pris avec les applications achetées de façon classique se perpétuent avec le mode SaaS. L'un des exemples les plus notables en la matière s'est illustré par l'acquisition de licences qui sont finalement restées 'sur l'étagère'. Dans le monde SaaS, cela se traduit par la souscription d'abonnements pour des utilisateurs qui ne s'en serviront pas, explique David Cearly. Cela se produit généralement dans les grands comptes, mais cela peut également se passer dans n'importe quelle entreprise, en particulier au sein de celles qui ont réduit leurs effectifs ou, encore, qui ont surestimé leurs besoins pour atteindre un volume d'abonnements donnant accès à des réductions tarifaires.
[[page]]Même si le modèle SaaS n'a pas apporté tout ce qu'il promettait (par exemple, Gartner estime que 90% des déploiements actuels ne se font pas sur la base d'un paiement à l'usage), il a malgré tout redonné du dynamisme au marché du logiciel et apporté davantage de choix. Certes, il ne résout pas tous les problèmes de mise en route, mais il permet un démarrage plus rapide dans les situations peu complexes. Bien sûr, le rôle du département informatique s'en trouve modifié, passant de la mise en oeuvre au contrôle d'un service fourni par éditeur.

Définir une gouvernance et prévoir l'intégration avec le SI

Quoi qu'il en soit, chaque entreprise va être, à un niveau ou un autre, confronté à ce type de déploiement. Dans ce contexte, le cabinet d'études recommande de suivre quatre étapes avant de faire son choix. Il rappelle d'abord que le SaaS ne constitue pas une panacée et qu'il implique des compromis. Certes, il limite les besoins en infrastructure et les tâches d'administration associées, réduisant ce faisant le coût total de possession. En revanche, les logiciels ainsi utilisés ne peuvent pas être comptabilisés comme un actif pour l'entreprise.

Gartner conseille ensuite de bien définir sa politique en matière de SaaS, d'établir un modèle de gouvernance sur lequel pourrait s'appuyer à la fois les équipes IT et métiers, en interne, et qui servirait aussi d'appui pour les relations avec le fournisseur.

Troisièmement, le cabinet d'analyse recommande de ne pas seulement évaluer les offres SaaS sur la base des performances métiers, mais de prendre en compte, aussi, des considérations techniques. Enfin, il est conseillé d'établir une feuille de route définissant l'intégration des applications SaaS avec le système d'information interne et les autres applications hébergées déployées.

(...)

(15/06/2010 15:58:28)

Interruptions de service et pannes persistantes chez Twitter

Après de multiples incidents mettant Twitter.com et sa plate-forme d'applications tierces hors service la semaine dernière, l'entreprise a annoncé qu'elle avait identifié les motifs de panne et pris des mesures concrètes pour résoudre le problème. Plus précisément, Twitter a évoqué des erreurs de planification, de suivi et de configuration de son réseau interne. En réponse, la société indique avoir doublé sa capacité réseau, accentué sa surveillance et amélioré l'équilibrage de charge.

« En réalisant le suivi de notre réseau interne en conformité avec le reste des systèmes de Twitter, nous serons en mesure d'augmenter notre capacité très en amont par rapport au nombre d'utilisateurs. De même, en doublant notre capacité réseau interne et en procédant à un rééquilibrage de charge, nous sommes, dès maintenant mais aussi pour l'avenir, mieux préparés à diffuser les tweets », a précisé Jean-Paul Cozzatti, membre de l'équipe d'ingénierie de Twitter sur le blog officiel de l'entreprise. Toutefois, les problèmes ont persisté tout au long du week-end et jusqu'à lundi matin, comme l'ont attesté le statut affiché sur le blog officiel de Twitter.

Une panne de 3 heures et 3 minutes

Selon le site de Pingdom, qui évalue les performances sur le web, depuis le début du mois de juin - et nous n'en sommes à peine qu'à la moitié - Twitter a accusé 3 heures et 3 minutes de panne. C'est déjà le pire, en termes de temps d'interruption, subi par Twitter depuis octobre de l'année dernière.

Lancé en mars 2006, Twitter a souffert en 2007 de pannes, longues et fréquentes, qui se sont poursuivies pendant la première moitié de l'année 2008. Le site du réseau social a par la suite régulièrement amélioré sa disponibilité, grâce au renforcement et à la réorganisation de ses systèmes. 2009 a affiché de très bons mois mais aussi de plus  mauvais. En août 2009, notamment, le site est resté hors service pendant plus de 6 heures, selon Pingdom.[[page]]
Cette année, le record en la matière est encore détenu par janvier, avec 89 minutes d'arrêt, mais les choses ont pris une plus mauvaise tournure en juin. Il faut rappeler qu'en avril, Twitter a lancé, avec un nombre limité de partenaires, comme Starbucks et Best Buy, son programme Promoted Tweets. Celui-ci propose à des entreprises de mettre en avant certains messages courts.

Or, il s'agit d'un élément clé de la stratégie de Twitter pour générer enfin des ressources commerciales. Mais ces pannes répétées ne vont pas contribuer aux efforts menés par Twitter pour attirer les grands noms du marketing. Ces derniers attendent un certain niveau de stabilité lorsqu'ils attribuent des budgets issus de leur campagne de publicité. En particulier quand il s'agit d'annonces générées et affichées de la même manière et selon le même format que les messages Twitter ordinaires.

2 millions de messages sur le site en mai

Au cours des deux dernières années, Twitter a connu il est vrai une croissance spectaculaire en mai dernier, selon Pingdom. Les utilisateurs ont posté environ 2 millions de messages sur le site. Celui-ci est devenu l'outil préféré de ceux qui veulent offrir des informations « heure par heure » sur leur vie personnelle. Mais il est aussi choisi par les entreprises et les personnalités publiques qui cherchent à se faire connaître, à promouvoir leurs marques et leurs produits. Le réseau social a également gagné en popularité auprès des développeurs externes qui ont créé plus de 50 000 applications pour la plateforme.

(...)

(15/06/2010 15:12:39)

SM1000 : Un serveur animé par 512 puces Atom

Le Californien SeaMicro a annoncé qu'il avait développé un serveur composé de 512 processeurs Intel Atom de faible puissance montés sur de petites cartes mères, le SM 1000. Le choix des puces Atom, que l'on trouve le plus souvent intégrées aux netbooks bon marché, Andrew Feldman, PDG de SeaMicro et personnage controversé dans la Silicon Valley, l'explique en disant qu'elles peuvent être plus efficaces sur le plan énergétique que des processeurs x86 traditionnels. En particulier pour le Cloud et certains types d'opérations dédiées à Internet où les charges de travail ont tendance à être plus petites en taille, mais plus grosses en volume. « Les serveurs actuels sont moins efficaces pour les petites charges de travail, » explique Andrew Feldman. « Les puces haute performance pour serveurs, comme l'Intel Xeon d'Intel et l'AMD Opteron sont mieux adaptées aux charges de travail nécessaires pour faire tourner les applications de type bases de données dans les entreprises traditionnelles », explique-t-il.

Des solutions alternatives

Ancien directeur marketing, Andrew Feldman oublie volontiers que certains serveurs en rack ou sur lames sont animés par des puces x86 double coeurs traditionnels ou basse consommation et offrent un très bon rapport encombrement/performance. Pour lui, les processeurs Atom, mis en série, fournissent de meilleures performances par watt dans un environnement Cloud. « La puce Atom s'avère bien adaptée pour la gestion des applications ordinaires, moins pour les opérations de calcul très difficiles. Et l'Internet est un secteur où il y a essentiellement des tâches ordinaires », a-t-il déclaré. Des benchmarks permettront de valider - ou non - ces propos quand ils seront publiés.

D'autres vendeurs se sont également tournés vers des solutions alternatives, mettant en oeuvre des serveurs avec des puces basse consommation. Ainsi, Dell a construit, pour certains de ses clients passés au Cloud, des serveurs reposant sur des processeur Nano fournis par Via Technology, et un groupe de recherche de Microsoft a également dévoilé l'année dernière des serveurs expérimentaux à base de puces Atom.

Illustration : Le SM1000 de SeaMicro, à partir de 140 000 $ (crédit photo : DR)
[[page]]

Pour économiser l'espace et réduire la consommation d'énergie, SeaMicro a réalisé son serveur SM1000 avec le moins de composants possible. Celui-ci est donc constitué de 512 cartes mères miniatures intégrant chacune un processeur Atom Z530 cadencé à 1,6 GHz, et reliées entre elles par un connecteur permettant un débit théorique de 1,28 térabits par seconde. En général, les cartes mères pour serveur comprennent des composants pour effectuer des tâches liées au stockage et à l'échange réseau, mais SeaMicro dit avoir virtualisé les entrées/sorties avec un contrôleur ASIC (Application-Specific Integrated Circuit) émulant le hardware, ce qui permettrait de se passer « de 90%» des composants d'une carte mère traditionnelle.

Une carte mère de la taille d'une carte de crédit

« Cette technologie nous permet de limiter la carte mère à la taille d'une carte de crédit », a expliqué le PDG de SeaMicro. Sur la carte mère, « seules demeurent les éléments principaux que sont la DRAM, le contrôleur et le CPU Atom », a-t-il précisé. « Le serveur se compose de 10 racks empilés en hauteur pour occuper 17,5 pouces - 45 cm - soit un quart de l'espace qu'occuperait un serveur traditionnel, mais aussi un quart de la puissance, pour une charge de travail équivalente », a indiqué Andrew Feldman. Cependant pour améliorer les performances, « les puces Atom pourraient être remplacées par d'autres processeurs x86 ou des composants reposant sur une architecture ARM ».

Livraison annoncée vers le 30 juillet

« Le SM1000 a un design unique qui pourrait amener d'autres vendeurs à repenser la façon dont ils construisent les serveurs », a déclaré Cal Braunstein, PDG du cabinet Robert Frances qui réalise des études de marché. « Ces serveurs ont été conçus pour un usage particulier. Avec cette architecture, ils peuvent utiliser des puces Atom et répartir la charge de travail entre un grand nombre de processeurs travaillant simultanément. Ce type de machine est adapté à certaines tâches Internet », ajoute encore Cal Braunstein. De plus, les datacenters se trouvent confrontés à des contraintes énergétiques. « Des serveurs comme le SM1000 peuvent aider à résoudre ce problème tout en réduisant la facture d'électricité. »

Bien évidemment, SeaMicro a fait savoir que certains clients utilisaient déjà sa machine, mais n'a pas souhaité les nommer. Officiellement, le serveur SM1000 de SeaMicro devrait être livré aux Etats-Unis vers le 30  juillet, pour un prix démarrant à 140 000 dollars US.

(...)

(15/06/2010 08:25:57)

Baisse des dépenses de sécurité en 2010 selon Gartner

En 2010, les dépenses en sécurité IT seront en baisse de 5 à 6% par rapport à 2009, estime le Gartner. Avec l'amélioration de la situation économique, les dépenses en sécurité vont reprendre, mais de manière moins rapide que pour les autres dépenses  IT. En 2009 pourtant, malgré la crise économique, les entreprises avaient maintenu leurs dépenses en matière de sécurité informatique, alors qu'elles réduisaient d'autres budgets. 

La demande change. En 2010, d'après l'auteur de l'étude, Vic Wheatman, directeur de recherche au Gartner, les entreprises clientes recherchent plutôt des plateformes de sécurité comprenant : la sécurité des terminaux, les pare-feu de nouvelle génération, les passerelles de sécurité Web, e-mail et pare-feu multifonctions pour les agences. D'autres cherchent la meilleure solution possible, sans passer par une plateforme, par exemple sur l'évaluation de la vulnérabilité. Le plus souvent, ces clients cherchent aussi des contrats au moindre coût.

De nouvelles dépenses apparaissent également, liées à de nouvelles initiatives commerciales, avec l'identité complexe et la gestion des accès (IAM) ou la prévention des pertes de données (DLP). L'IAM est la priorité de 20% des entreprises interrogées dans l'enquête, en matière d'investissements dans la sécurité. Les quatre suivants sont : la prévention des intrusions, la gestion des correctifs, les DLP, les antivirus et la gestion d'identité. Le Gartner cite d'autres sujets possibles d'investissement en matière de sécurité : la mise en réseau d'hôtes, le télétravail salarié, la sécurisation des réseaux locaux sans fil, les cartes de paiement, les pistes d'audit de consolidation, la sécurité dans la gestion d'événements, les exigences des tests de pénétration, la prévention d'intrusion.

L'Europe est le continent où les entreprises consacrent la part la plus faible de leur budget à la sécurité, 4,3%, contre 5,5% par exemple aux Etats-Unis.

(...)

(15/06/2010 08:24:36)

40 000 PC portables chiffrés dans un grand groupe français

Ce groupe français, qui entend conserver l'anonymat, compte 100 000 utilisateurs et sensiblement autant de postes de travail, dont près de 40 000 portables. Parmi ces derniers, 33 000 sont confiés à des commerciaux et 7000 à des utilisateurs occasionnellement nomades, essentiellement des managers.
« En 2007, dans notre entreprise, un PC portable a été volé ou perdu tous les deux jours. Or, nombre d'entre eux contiennent des informations confidentielles », a expliqué le RSSI de ce groupe. Il s'est exprimé lors des RIAM (rencontres de l'IAM) qui se sont tenues du 26 au 28 mai dernier et organisées par l'intégrateur Atheos. Cet évènement a rassemblé cette année 150 RSSI de grandes entreprises, telles que la Caisse des Dépôts, Areva, La Poste ou encore Carrefour.

Des contraintes pour les utilisateurs et le support

Dès 2005, la décision avait été prise de mettre en oeuvre à grande échelle une solution de chiffrement de l'ensemble des disques durs, en cherchant à minimiser les contraintes pour les utilisateurs. La solution choisie est SafeGuard Easy (de Sophos).
Le déploiement est réalisé en trois phases : tests sur 1000 machines, projet pilote sur 3000 machines, et enfin déploiement sur les quelque 35 000 machines restantes. Afin de s'assurer que l'outil sera bien présent sur tous les PC, il est décidé en cours de projet de modifier la configuration standard des PC en y intégrant SafeGuard Easy. Le déploiement, qui s'en est trouvé ralenti mais fiabilisé, s'achève fin 2008.

[[page]]

La solution donne satisfaction mais impose deux contraintes. Tout d'abord, faute d'une synchronisation avec Active Directory, elle exigeait un double log-in - celui de l'outil puis celui de Windows. D'autre part, à chaque population homogène (marketing, commerciaux...) devait correspondre un fichier de configuration spécifique. Cela compliquait le déploiement et entrainait un support spécifique à chacune de ces populations. La difficulté était accrue lorsqu'un utilisateur changeait de population.

Une architecture centralisée est déployée en 2010

Début 2009, il est donc décidé d'adopter une nouvelle architecture qui permettra de contourner ces inconvénients. Le choix de l'outil se tourne alors vers SafeGuard Enterprise qui permet de définir, de façon centralisée, des politiques de sécurité différentes pour chaque population.

De plus, une meilleure délégation des droits assure une continuité du support, même lorsque des utilisateurs changent de poste dans l'entreprise. Enfin, la synchronisation des comptes avec Active Directory devient possible. Il suffit donc d'un seul mot de passe pour démarrer la machine et gérer le chiffrement, qui devient ainsi pratiquement transparent pour l'utilisateur. Le déploiement massif devrait intervenir en septembre 2010 sur la base de la version 5.5 de SafeGuard Enterprise, annoncée en avril dernier. Elle apporte un support complet de Windows 7, ce qui se traduira essentiellement par des performances améliorées.
(...)

(15/06/2010 08:24:33)

Sondage flash : les Trophées servent surtout à la promotion interne

Le Monde Informatique et CIO ont récemment remis les Trophées Entreprises et Société de l'Information. Depuis dix ans, la manifestation récompense l'apport pratique de l'informatique à la performance des entreprises. Mais qu'en retiennent nos lecteurs ?

Avant tout, selon notre dernier sondage flash, qu'obtenir une telle distinction sert en interne à promouvoir le projet concerné, pour plus d'un tiers des répondants.
En second lieu, les projets distingués peuvent être exemplaires pour l'ensemble des DSI et ainsi leur donner de bonnes idées. Plus du quart des répondants ont eu cette attitude.
Mais aucun lecteur n'a estimé que les Trophées peuvent servir l'image générale de la fonction de DSI et moins de 10% que les CV des responsables des projets distingués pouvaient être ainsi enrichis.

(...)

(15/06/2010 08:24:30)

Grenoble Ecole de Management crée un laboratoire d'innovation pédagogique

Les étudiants de Grenoble Ecole de Management, sélectionnés pour intégrer le Groupe Test Innovation, auront une surprise à la rentrée 2010. En effet, le campus grenoblois a choisi d'investir dans un parc de 50 iPads pour en expérimenter les futurs usages pédagogiques et quotidiens. Objectifs de la démarche : observer l'appropriation des méthodes et des outils par les étudiants et les professeurs, bénéficier de leurs retours d'expérience et de leurs idées, pour imaginer des applications pédagogiques transmissibles à tous au service de la vie de l'étudiant à l'Ecole. On peut aussi citer la consultation de livres numériques, l'accès aux supports de cours à distance, ou les publications des ouvrages des enseignants sur le e-book store. Toutefois, si la fourniture d'iPad constitue une nouveauté en soi, c'est dans le cadre d'une autre initiative qu'elle prend toute sa mesure : la création du Groupe Test Innovation, qui se positionne comme un laboratoire d'expérimentations et d'innovations pédagogiques.

Une présence moins intrusive qu'un PC portable

« La question que nous nous posons est de savoir si les tablettes actuelles ou futures vont remplacer les PC portables dans l'utilisation quotidienne », s'interroge Marc Humbert, responsable du Groupe Test Innovation. « On va peut-être s'apercevoir que la tablette est une présence moins intrusive en salle de classe qu'un PC portable ouvert parce qu'elle ne fait plus barrière entre les étudiants et le professeur. » Sélectionnés sur leur motivation et leur sensibilité aux problématiques de l'innovation, les 40 étudiants du futur laboratoire de recherche se verront proposer le même programme en termes d'acquisitions de connaissances et de compétences que les 500 élèves de 1ère année. Ils seront également soumis aux mêmes évaluations. En revanche, c'est sur la forme que le parcours différera, les élèves devant tester d'autres méthodes d'enseignements - tels que les serious games, ou le mind mapping.-, qui si elles sont concluantes, seront généralisées à l'ensemble des promotions.

50 iPad à Grenoble Ecole de Management

Crédit photos : Grenoble Ecole de Management (...)

< Les 10 documents précédentsLes 10 documents suivants >