Flux RSS
108538 documents trouvés, affichage des résultats 5781 à 5790.
| < Les 10 documents précédents | Les 10 documents suivants > |
(01/12/2010 16:49:29)
Les acteurs du mobile s'intéressent activement à Linux
« Cet apport dans le développement de Linux par les acteurs de la téléphonie mobile reflète l'importance croissante de cet OS dans ces marchés », souligne la Fondation Linux dans son rapport annuel sur le « développement du noyau Linux ».
Des entreprises telles que Nokia, AMD, Texas Instruments et Samsung ont toutes été des contributeurs importants pour améliorer le code du projet. Depuis la version 2.6.30 du noyau, sorti en juin 2009, Nokia a présenté 1 173 correctifs, soit environ 2,3 % de toutes les modifications apportées au noyau. AMD en a présenté 860, environ 1,7 % de l'ensemble et Texas Instruments en a présenté 775, soit environ 1,5 % du total. Bien que le nombre de modifications reste faible, il est en forte augmentation et reflète une évolution dans la base d'utilisateurs du Kernel Linux, affirme le rapport.
Linux est à la base du système d'exploitation Android de Google, utilisé dans plusieurs terminaux mobiles. Il est supporté aussi par MeeGo, un projet lancé par Intel et Nokia pour construire un système d'exploitation pour les appareils de faible puissance et portable. Des entreprises comme Sony, Nokia et Samsung utilisent de plus en plus Linux pour les appareils électroniques grand public, comme les caméras vidéo et les téléviseurs.
Les développeurs gardent la main
Supervisé par le créateur Linus Torvalds, le noyau Linux est ce que la Fondation Linux appelle l'un des « plus grand projet coopératif jamais entrepris dans le logiciel. » Depuis 2005, plus de 6 117 développeurs et plus de 600 entreprises différentes ont contribué à cette aventure Open Source. La Linux Foundation, organisme à but non lucratif, a été fondée en 2007, favorise le développement et la gestion des logiciels.
En ce qui concerne le mécénat d'entreprise, Red Hat dirige actuellement le peloton en termes de contributions. Depuis la version 2.6.30, il a contribué à hauteur de 6 219 modifications, soit environ 12 % du total. Vient en deuxième place, Intel avec une contribution estimée à 4 037 modifications, soit environ 7,8 % de l'ensemble. D'autres contributeurs sont également importants comme Novell (2 625 modifications), IBM (2 491) et Oracle (995). Les développeurs indépendants détiennent la palme des apports à Linux, avec 35 663 contributions, soit environ 18,9 % de l'ensemble.
Près de 13,5 millions de lignes de code
Le développement du noyau a ralenti quelque peu depuis la version 2.6.30. Cette dernière comprenait 11 989 correctifs, alors que la dernière version, 2.6.35 en comptabilisait que 9 801. Le rapport attribue ce ralentissement à la réalisation d'un certain nombre de grands projets, tels que l'incorporation du système de fichiers ext4.
La taille du noyau continue néanmoins de croître. La dernière version comprenait 13 468 253 lignes de code, plus de deux fois la taille du 2.6.11, sorti en mars 2005, qui avait 6 624 076 lignes de code. Alors que plus de 6.117 développeurs ont contribué à Linux depuis la version 2.6.11, leurs contributions ne sont pas égales. Depuis 2.6.12, le programmeur David S. Miller Red Hat est celui qui a contribué le plus avec 2 533 évolutions, ou 1,3 % de toutes les modifications apportées au noyau. Fait intéressant, Linus Torvalds, qui a proposé 886 changements dans le même laps de temps, n'est même pas dans le top 30 des contributeurs.
Un service de sécurisation des données pour Salesforce.com
Le service consiste à crypter de toutes les données considérées comme sensibles, avant qu'elles ne soient transmises au système de Salesforce.com. Selon un document rédigé par Navajo, même si ces données résident chez Salesforce.com, elles sont « totalement illisibles (et donc inexploitables) ». Toujours selon Navajo « le vol de la base de données, les fuites accidentelles, les demandes d'assignations faites au fournisseur SaaS et même le vol d'identité, deviennent inoffensifs, et la conformité réglementaire est assurée. »
Le logiciel de Navajo décrypte l'information quand elle est renvoyée à l'utilisateur final, les entreprises conservant le contrôle des clés de déchiffrement. Le service fonctionne en tâche de fond et ne requiert aucune modification du code de l'application SaaS, selon Navajo. Si les données circulant entre le data center d'un fournisseur SaaS et le navigateur d'un utilisateur final sont généralement cryptées, la copie de la base de données résidant chez le fournisseur SaaS peut ne pas l'être. Les données des utilisateurs demeurent vulnérables, même si le fournisseur SaaS procède à leur cryptage, car un employé peu scrupuleux ou un pirate pourrait y accéder et violer cette l'information, toujours selon Navajo. Le service virtuel peut être installé sur un appareil qui s'intègre au réseau du client, ou être fourni à titre de service par Navajo ou par un fournisseur tiers.
Une sécurisation polyvalente
Basé sur Linux, le système repose sur trois composants : un serveur proxy placé entre de l'application SaaS et les utilisateurs du client, un moteur de chiffrement utilisant « des méthodes de cryptage homologuées, basées sur des algorithmes NIST », et un outil de gestion et de contrôle de la sécurité avec une interface web. Le chiffrement, indépendant du hardware ou de la base de données, reste sécurisé jusqu'au déchiffrement, en partie pour permettre aux applications de continuer à fonctionner. Par exemple, la date et l'heure d'une réunion dans un agenda pourraient ne pas être chiffrées, mais d'autres détails pourraient l'être, comme le précise le document de Navajo. La technologie de sécurisation utilisée permet également à l'application de rechercher et de trier les données chiffrées.
Navajo a déjà inclus par ailleurs des fonctions comparables à celles vendues pour Salesforce.com sur d'autres applications SaaS, comme SuccessFactors, Google Apps et Oracle CRM On Demand. L'entreprise israélienne est en concurrence avec des sociétés comme PerspecSys, laquelle propose aussi un service spécialisé pour la protection des données sur Salesforce.com. Selon Steve Coplan, analyste du cabinet 451 Group, qui a rédigé un récent rapport sur Navajo, « les enquêtes montrent que les questions de confiance et de sécurité sont déterminantes pour décider une entreprise à adopter le cloud computing. « Les fournisseurs de SaaS et les entreprises savent qu'en faisant cet investissement stratégique pour résoudre ces questions, ils peuvent contribuer à faciliter l'adoption du Cloud. Ce qui rend Navajo pertinent, » a t-il ajouté. Cependant, « nous craignons que, si l'offre spécifique de cette jeune société pour le respect et la confidentialité des données peut susciter l'intérêt, la société risque de se créer un handicap, en particulier si la conformité est comprise à juste titre comme un sous-ensemble de la sécurité et que la confidentialité des données comme un aspect de la transformation structurelle, » écrit Steve Coplan.
Le calcul intensif version Nvidia bientôt sur les mobiles
Cet apport, quand il sera effectif, devrait marquer un saut qualitatif dans la capacité pour les appareils mobiles comme les smartphones et les tablettes à exécuter des applications riches en multimédia. « L'avantage de CUDA dans les appareils mobiles est incroyable », a déclaré le PDG de Nvidia, Jen-Hsun Huang, dans une interview à Tokyo. CUDA gère certaines tâches gourmandes en ressource processeur comme le montage vidéo ou de retouche d'image en déchargeant le CPU vers le GPU. Ce système entraîne une amélioration significative de la vitesse de traitement des données.
Les puces graphiques sont limitées dans le type de traitement qu'elles peuvent réaliser, mais, avec plus de 100 coeurs dans un processeur graphique moderne contre seulement quelques coeurs dans un processeur, elles sont particulièrement bien adaptées à ces tâches (image et vidéo). L'architecture CUDA combine des logiciels et du matériel. Elle a été rapidement adoptée pour les supercalculateurs, dont plusieurs sont basés sur des combinaisons de GPU Nvidia et les processeurs Intel. Plus récemment, elle est arrivée dans l'entreprise et auprès du grand public pour accélérer des actions comme l'encodage vidéo dans Adobe Premiere CS5.
Découvrir un autre univers plus réactif
« Imaginez que nous apportons cette capacité CUDA dans un téléphone mobile » a dit Jen-Hsun Huang. Il a pris comme exemple une application capable de reconnaître une bouteille de vin depuis une image prise par le smartphone, puis l'interface se connecterait à un service de cloud computing pour fournir des informations sur le vin, le meilleur prix et quand il doit être bu. « Vous regardez à travers votre appareil photo et une multitude d'informations sur votre environnement sont disponibles instantanément » souligne le dirigeant et d'ajouter que l'intégration de cette architecture ne devrait voir le jour que d'ici 2 ou 3 ans.
La stratégie de Nvidia sur le mobile repose sur le processeur Tegra à base de technologies ARM. Le dual-core Tegra 2 a déjà été utilisé dans certains produits, comme le Folio de Toshiba et prochainement dans une tablette pour Dell. (...)
Red Hat acquiert Makara, spécialiste du PaaS
L'éditeur Open Source prévoit d'utiliser les technologies de Makara, dans le portefolio de sa Cloud Foundation. « Cette dernière donne aux clients et aux développeurs un accès plus facile au monde du cloud. Avec l'ajout du savoir-faire de Makara, nous cherchons à simplifier davantage le déploiement d'applications et de gestion », a déclaré Paul Cormier, responsable produits et technologies chez Red Hat.
Plus précisément, les logiciels de Makara pourront être utilisés dans le cadre de la Platform-as-a-Service (PaaS) de Red Hat. Lorsqu'ils seront combinés avec JBoss Enterprise Middleware, la plate-forme disposera de fonctionnalités supplémentaires de surveillance, de restauration et des outils d'évolutivité.
En mode PaaS
« Le PaaS devient un autre marché pour les éditeurs de logiciels qui cherchent à fournir des solutions d'entreprise convaincantes dans le cloud », a déclaré Rachel Chalmers, directrice de recherche au sein de 451 Group. « En rachetant les technologies développées par Makara dans le cloud, Red Hat est maintenant en mesure de répondre à ce marché en créant des solutions pour les entreprises à la recherche de déploiement, de gestion et des capacités d'auto-évolutivité au sein de la plate-forme initiale », dit-elle.
Nommé d'après une créature aquatique de la mythologie indoue, Makara est basé à Redwood City, en Californie. La société a reçu le soutien financier de Shasta Ventures, Sierra Ventures, Marc Andreessen et Ben Horowitz.
Microsoft donne le coup d'envoi d'Imagine Cup 2011
C'est parti pour la neuvième édition d'Imagine Cup. La compétition technologique organisée par l'éditeur est donc ouverte aux lycéens et étudiants de plus d'une centaine de pays des cinq continents. Elle s'inscrit une nouvelle fois dans le cadre des « 8 objectifs du millénaire pour le développement des Nations-Unies ». Comme l'an dernier, les jeunes talents du monde entier sont invités à concevoir leur projet autour de la problématique suivante : « Imaginez un monde où la technologie nous aide à répondre aux enjeux les plus cruciaux de notre société ». Leurs projets devront participer à réduire l'extrême pauvreté et la faim, assurer l'éducation primaire pour tous, promouvoir l'égalité des sexes et l'autonomisation des femmes, réduire la mortalité infantile, améliorer la santé maternelle, combattre les maladies, assurer un environnement durable et mettre en place un partenariat mondial pour le développement.
Parrainage de la campagne du millénaire et d'Emmaüs
Tout porte à croire que cet objectif sera une nouvelle fois atteint lors de cette édition tant l'engouement pour ce championnat du numérique ne se dément pas d'année en année. La dernière édition avait réuni à Varsovie pas moins de 325 000 étudiants représentant 126 pays, dont 10 000 en France. En 2003, date de sa création, 1 000 candidats d'une vingtaine de pays, dont une trentaine de Français s'y étaient inscrits
« La passion est là et les yeux continuent de briller », a déclaré d'emblée Bernard Ourghanlian, directeur technique et sécurité et responsable de la division plateforme et écosystème chez Microsoft France, à l'occasion d'un point presse. «Seulement cinq années nous séparent désormais de la date butoir visant à réaliser les huit grands défis lancés par les objectifs du millénaire pour le développement, a poursuivi Fabrice Ferrier, coordinateur en France de cette campagne. C'est l'une des principales raisons pour laquelle nous nous sommes associés à cette initiative. » A ses côtés, l'association Emmaüs parrainera cette année la compétition en France.
Les étudiants peuvent concourir dans cinq grandes catégories : conception de logiciels, développement embarqué, digital media, conception de jeux vidéo, et application pour Windows Phone 7, une thématique inaugurée par Microsoft dans le cadre d'Imagine Cup 2011.
Direction New-York pour la finale mondiale
Illustration : Les élèves de l'Ece remportent le bronze d'Imagine Cup 2010 dans la catégorie Systèmes embarqués . Crédit photo: Microsoft
[[page]]
Après Varsovie en 2010, la finale mondiale d'Imagine Cup aura lieu cette année à New-York, du 8 au 14 juillet prochains. Mais avant d'accéder à cette ultime étape de la compétition, les étudiants devront soumettre leurs projets à des jurés nationaux. La finale française aura lieu le 5 mai 2011 au Campus de Microsoft France, à Issy-les-Moulineaux. La compétition est ouverte à tous les profils (informaticiens, ingénieurs, designers,...), les professeurs d'écoles et d'universités peuvent également participer à l'aventure en parrainant une équipe. Il est courant à l'échelle internationale de voir des équipes constituées dans le cadre de projets scolaires, à l'initiative des enseignants. C'est le cas de l'école d'ingénieurs parisienne ECE, dont les étudiants ont remporté le bronze l'année dernière dans la catégorie « systèmes embarqués » Ou des jeunes de l'établissement 3IL de Rodez, qui ont terminé sur la 3ème marche du podium lors de l'Imagine Cup 2010 en « conception de jeux vidéo ». Pour les équipes lauréates, Imagine Cup peut également être un tremplin professionnel permettant à leurs projets de prendre vie. Ainsi, environ un quart des équipes présentes en finale mondiale d'Imagine Cup créent une start-up à l'issue de cette expérience. En 2010, 43 des 119 équipes participant à la finale mondiale ont accepté l'invitation qui leur a été faite de rejoindre le programme de soutien des start-ups de Microsoft. Parmi celles-ci 29 ont rempli les conditions pour bénéficier effectivement du programme.
La dernière édition a ainsi vu naître la structure GraphicStream (développement de jeux vidéo), lancée par le coach et mentor de la catégorie « conception de jeux vidéo » Valentin Billotte, vite rejoint par Luc Aubert et Alexandre Bardelot, médaillés de bronze lors de la finale mondiale d'Imagine Cup 2010. Le jeu Arcane's Tower Defense, développé par GraphicStream a d'ailleurs remporté le concours Pitch Your App sur Windows Phone 7, le 7 octobre dernier. Cette année, le renouvellement du partenariat avec la SSII Avanade et le parrainage de Gilles Babinet, entrepreneur et business angel (fondateur de Musiwave), devraient permettre aux étudiants de se préparer à l'aventure start-up.
Illustration : Les élèves de l'Ece remportent le bronze d'Imagine Cup 2010 dans la catégorie Systèmes embarqués . Crédit photo: Microsoft
(...)
Polémiques financières sur le plan fibre en Australie
(Source EuroTMT) Le projet de réseau national public à très haut débit (NBN) vient de franchir une première étape essentielle en Australie. Après le vote par le Sénat du projet de loi organisant la séparation structurelle du réseau en cuivre de Telstra (l'opérateur historique domestique), la chambre des représentants a, à son tour, entériné le projet de loi lundi 29 novembre. Le Parti Travailliste au pouvoir n'ayant pas la majorité absolue au Parlement, ces votes ont été rendus possibles grâce au soutien apporté par les élus écologistes et indépendants, qui se sont ralliés au projet la semaine dernière.
En contrepartie de leur soutien, le gouvernement travailliste, dirigé par Julia Gillard, élue en juin dernier, avait accepté de publier un document financier expliquant les détails de l'investissement prévu. Annoncé en avril 2009, le projet NBN doit couvrir 93 % de la population, les 7 % restants étant desservis soit par des accès sans fil (4 %), soit par le satellite (3 %). A ce jour, l'Australie compte 10,9 millions de prises, dont 9,6 millions de prises grand public et 1,3 millions de prises professionnelles. L'Australie prévoit aussi une croissance annuelle moyenne de 177 000 prises d'ici à 2025. Selon le document financier, le coût global de l'investissement pour déployer le réseau en fibre optique (qui couvrira 10,1 millions de prises) sera de 35,7 milliards de dollars australiens (un peu plus de 26 milliards d'euros), un chiffre revu à la baisse par rapport au plan initial (37,4 milliards) en raison de l'accord conclu avec Telstra, qui cède à NBN Co, la société publique dirigée par Mike Quigley (un ancien dirigeant d'Alcatel-Lucent). Cette dernière déploiera et exploitera la fibre optique, son réseau en cuivre et une partie du génie civile pour 13,8 milliards de dollars australiens (10 milliards d'euros), dont le paiement sera étalé jusqu'en 2020. Un montant que NBN Co. a intégré, non dans le coût d'investissement, mais dans ses coûts d'exploitation, provoquant une mini-polémique en Australie sur les coûts réels de l'investissement.
Des questions sur le financement
Toujours selon le document rendu public la semaine dernière, le financement de l'investissement passera par une mise en capital de 27,1 milliards de dollars australiens (19,8 milliards d'euros) par l'Etat australien, complété ensuite par de la dette. Le business plan prévoit aussi que la société publique dégagera ses premiers cash-flows positifs en 2021. Les premiers dividendes devraient être versés dès 2020, permettant de rembourser le montant de la mise de fonds publics en 2034. Pour autant, ce document financier n'a guère convaincu l'opposition politique et les spécialistes, compte tenu du peu de chiffres rendus publics. L'opposition a aussi demandé, en vain, une analyse coûts - bénéfices pour vérifier que l'argent public était utilisé à bon escient.
Si le Parlement a donc finalement adopté la séparation de Telstra, le projet NBN n'a pas pour autant franchi tous les obstacles. En février prochain, après les vacances parlementaires, un autre projet de loi, sur les conditions d'utilisation par NBN Co. du réseau en cuivre, devra aussi être adopté. Or ce projet, qui, dans l'état actuel, permettrait à Telstra d'obtenir des conditions d'accès financièrement avantageuses par rapport aux concurrents, est contesté notamment par les sénateurs indépendants qui s'étaient ralliés aux travaillistes pour faire passer le premier projet de loi.
L'expérience client doit être enrichie pour fidéliser
« En sortie de crise, la priorité des entreprises n'est plus de réduire les budgets mais d'améliorer la rétention des clients » a soutenu Rachel Hunt, directeur de la recherche EMEA du cabinet IDC. Elle s'est exprimée lors de la conférence RIA 2010 organisée par Adobe au Palais des Congrès de Paris, consacrée (comme son nom l'indique) aux Rich Internet Applications. Pour assurer cette rétention des clients, il faut améliorer « l'expérience client », c'est à dire le ressenti du consommateur lorsqu'il contacte l'entreprise. Cela passe par la mise en place d'une stratégie de l'expérience client (qui vise le développement de la qualité de celle-ci), bien au-delà d'une simple GRC (qui analyse le passé).
L'un des axes de progrès reste le web. Selon Rachel Hunt, « 38% des entreprises ont l'intention d'accroître le budget de développement de leurs sites web ». Ce développement s'effectue également en mettant en place une approche homogène multi-canal intégrée : le client doit pouvoir choisir lui-même son « mix relationnel », c'est à dire la ou les manières de contacter l'entreprise selon le moment de sa relation. Une transaction peut ainsi débuter sur le web, passer par le téléphone, puis par l'e-mail, revenir au web, etc. A chaque étape, le client doit être reconnu et voir avancer sa transaction au lieu de revenir en arrière.
Le client est un être numériquement polymorphe
« Les messages doivent être les mêmes quel que soit le canal, ce qui implique que l'information soit partagée et collaborative avec une bonne gouvernance » a insisté Rachel Hunt. La gouvernance des informations et des relations clients revient, en fait, à répondre aux questions habituelles : qui fait quoi comment, pourquoi et sous quelles conditions...?
L'utilisation des médias « web 2.0 » comme Twitter ou Facebook est aussi une manière d'améliorer l'expérience client. Mais cela ne peut être pertinent que si l'on gère ces outils dans le cadre d'une stratégie de relations avec la clientèle. De plus, a rappelé Rachel Hunt, « il faut être prêt à accepter sur ces outils les critiques ou les demandes d'amélioration ».
Avec ALM 11, HP renforce la sécurité et l'automatisation des tests applicatifs
« Les clients veulent allaient plus vite pour déployer leurs applications. Avec ALM 11, nous leurs proposons de passer de 6 mois à 30 jours » nous a expliqué Jonathan Rende, vice-président et directeur général de l'activité BTO Applications chez HP, lors d'une conférence de presse à Barcelone à l'occasion de la manifestation HP Software Universe Europe. « Le testing change, l'application n'a plus besoin d'être un bloc unique pour travailler. Le test peut porter sur un sous-ensemble d'une vingtaine de composants comme par exemple dans le cas d'une banque » précise de son coté Paul Mueller, vice président en charge du marketing stratégique software au sein de la firme de Cupertino. Nous nous sommes adaptés, car il est devenu plus difficile de faire des tests avec les méthodes habituelles. Nous sommes aujourd'hui capable de traiter automatiquement 90% des applications traditionnelles ou dans le cloud».
Des premiers clients bêta testeurs
ALM 11 qui travaille avec une vingtaine d'environnements dont Java, .Net, Eclipse ou MSVS, coordonne le travail de plusieurs outils dont LoadRunner and Truclient pour valider les performances applicatives avant la recette. Un moteur de recherche scanne automatiquement les lignes de code pour proposer des améliorations et optimiser le travail des développeurs. Sprinter permet de procéder à des tests manuels avec annotations et fournit des captures d'écran à différents stades. Ce module travaille parallèlement à l'application sur le grill et enregistre toutes les opérations pour tester les différentes combinaisons avec plusieurs OS. Willem Van Den Broek, en charge du BTO chez le chimiste Achmea, nous a ainsi expliqué que lors du déploiement de produits SAP, il avait dû tester les liens vers les applications Microsoft. Et l'utilisation de la version bêta d'ALM 11 lui avait fait gagner énormément de temps. « ALM n'est pas qu'une solution aux problèmes de développement, mais une solution bien indiquée pour faire cohabiter plusieurs environnements applicatifs. Il faut toutefois changer d'approches pour prévenir les problèmes ». À la question de savoir si ALM 11 permettait vraiment de gagner 50% en temps de développement et près de 80% en déploiement, Willem Van Den Broek et un autre responsable informatique du nom de Abe Naguib, directeur architecture et infrastructure chez l'assureur AIG Chartis (utilisateur de TruClient), ont prudemment botte en touche. Ce dernier précisant simplement que le solution permet vraiment de gagner du temps en considérant la totalité de l'environnement de production et pas seulement la partie sur laquelle certains développeurs travaillent. Visiblement conquis, Willem Van Den Broek ajoute qu'il avait découvert de la flexibilité et des possibilités avec la bêta 11 d'ALM. Abe Naguib précisant ensuite qu'il avait commencé à travailler sur une réorganisation de son parc applicatif pour solder les essais des dernières années. Dernier témoignage celui de Maja Usbeck, responsables des tests chez ATP au Danemark, qui utilise l'outil Sprinter. Cette dernière se félicite également du produit HP : « nous avons encore des tests manuels, mais nous avons significativement amélioré notre productivité avec ALM. Et en combinaison avec d'autres outils, Springer permet de faire des captures à un niveau très bas dans le code », ajoute-t-elle.
Panel des clients bêta testeurs d'ALM 11
[[page]]Fortify intégré à vitesse grand V
A Barcelone, nous avons également rencontré Subbu Iyer, vice-président produits dans la division Software et Solutions de HP, et Barmak Meftah, responsable produit chez Fortify. L'occasion de mieux comprendre l'intégration des outils de l'éditeur de San Mateo au sein d'ALM 11 et notamment la cohabitation avec ASC. « Nous travaillons depuis 3 ans avec HP sur un produit baptisé Hybride 2.0 qui permet de mixer test de sécurité statique - avec la solution Fortify 360 - et dynamique avec le produit ASC de HP ». L'acquisition de Fortify permet aujourd'hui à Hewlett-Packard de muscler sa solution ALM avec notamment la possibilité de prioriser les résultats. « On commence les tests ou on veut pour remonter rapidement les résultats les plus pertinents. La pénétration est meilleure et on peut simuler ce que les hackers pourraient faire » précise encore Barmak Meftah. « Nous travaillons avec toutes les plates-formes et analysons les scripts, les API et les principaux langages sans problèmes ».
À la question de savoir où va HP dans le domaine de la sécurité, Subbu Iyer répond prudemment qu'il est nécessaire de devenir proactif dans la gestion des assets de sécurité pour savoir précisément ce que vont faire les applications au sein du système d'information. Au sujet de l'intégration d'ArcSight, une des dernières acquisitions de HP, le vice-président explique simplement qu'avec cette solution la fourniture de tableaux de bords pour suivre tous les évènements sera plus facile. « Nous avons l'opportunité d'intégrer ces outils à notre BTO pour apporter une meilleure approche de la sécurité ». Précisons pour finir sur ce sujet que Fortify proposera toujours son service de recherche des failles de sécurité baptisé On Demand aux petites entreprises qui enverront leurs fichiers binaires sur le datacenter de l'éditeur.
Paul Mueller, vice président en charge du marketing stratégique software chez HP
Quelle direction pour l'activité logicielle ?
Si HP ne génère pour l'instant que 3% de ses revenus avec son activité logiciels, l'arrivée de Leo Apotheker à la tête delà compagnie préfigure de grands changements. Si certains journalistes anglo-saxons estiment que l'ancien dirigeant de SAP sera à la peine avec l'activité hardware de HP, Paul Mueller explique en souriant que « Leo Apotheker a été une des meilleures acquisitions ces derniers mois... » Questionné sur les futurs acquisitions de HP notamment dans le secteur de la BI, ce dernier souligne que la compagnie travaille déjà énormément dans ce domaine avec ses partenaires et son activité de services. Nous n'en saurons donc pas plus sur la question.
(...)(01/12/2010 11:04:35)Trimestriels Team Partners : le contexte économique affecte les résultats
La SSII Team Partners Group publie les résultats de son troisième trimestre et des neuf premiers mois de l'année cumulés. Des chiffres qui interviennent quinze jours après la mise en redressement judiciaire de neuf filiales. Celles qui ne font pas de l'informatique, mais de la prestation pour la presse écrite et les associations. Elle représentent 40% du CA et emploient 750 des 1 600 salariés de Team Partners Group.
Sur le troisième trimestre, le chiffre d'affaires se monte à 22,2 millions d'euros, en baisse de 6,9%. La partie « presse et associations » représente 8,4 M€, soit une baisse de 13,6%. Le reste (expertise informatique, conseil en technologie, CRM) ne baisse que faiblement passant de 14 à 13,8 M€. En dehors de son activité de conseil en technologie, dont le chiffre d'affaires a progressé à 1 M€ sur le trimestre (contre 400 000 au 3e trimestre 2009), la SSII indique que ses autres activités ont « souffert de l'effet de saisonnalité » et « du contexte économique toujours difficile ».
Pour les neuf premiers mois de l'année, le chiffre d'affaires a baissé de 8,5% à 72,5 M€. La partie « presse et association » régresse de 13,4%, le reste est passé de 45,8 M€ à 43,5 M€, soit une baisse de 2,3%. (...)
Les ventes mondiales de serveurs ont augmenté de 15,3% au 3e trimestre
Selon Gartner, le marché mondial des serveurs a connu un quasi équilibre entre hausse du chiffre d'affaires et croissance des livraisons au troisième trimestre 2010. Au cours de cette période, le nombre d'unités livrées a progressé de 14,2%, comparé au troisième trimestre 2009, pour atteindre les 2,12 millions de serveurs. Dans le même temps, les revenus du secteur ont crû de 15,3% pour se situer à 12,3 milliards de dollars. Certes, la croissance en volume du marché fut plus bien importante lors des premier et second trimestres de l'année (23% puis 27%). Mais en dépit de cet écart avec le premier semestre, la hausse des revenus au troisième trimestre est la plus forte depuis le début 2010.
Explication de Jeffrey Hewitt, vice-président responsable de la recherche chez Gartner : « Le prix moyen des serveurs, principalement celui des serveurs X86, a connu une hausse qui a entraîné une croissance des revenus plus importante que la progression sur les livraisons ». Cette hausse du prix moyen tient au fait que les entreprises assignent de plus en plus de tâches à ces serveurs, souvent en utilisant des technologies de virtualisation qui demandent plus de capacités de calcul, et choisissent en conséquence des matériels plus onéreux. Principal moteur du marché, le segment des serveurs X86 a ainsi vu ses recettes croître de 29,5% et ses livraisons de « seulement » 14,9%. Les ventes de serveurs embarquant des processeurs différents, principalement les mainframes, ont enregistré, quant à elles, une croissance en valeur de 9,9%. Seul le marché des serveurs Risc/Itanium a souffert, touché par une baisse de 9,5% en valeur et de 10,1% en volume.
L'Europe de l'Ouest fait pâle figure...
Comparé au marché mondial, celui d'Europe de l'Ouest est loin d'avoir connu les mêmes envolées lors du troisième trimestre 2010. Sa croissance en volume s'est limitée à 8,8% et sa hausse en valeur à 5,7%. C'est moins bien que les Etats-Unis (+17% en volume ; + 16,3% en valeur), que l'Europe de l'Est (+33,3% en valeur) et que l'Amérique Latine (+28,3% en volume). C'est en revanche mieux que l'ensemble de la zone EMEA (Europe, Moyen-Orient, Afrique) sur laquelle le chiffre d'affaires du marché des serveurs a baissé de 2,9% en dépit de livraisons en hausse de 4,2%.
Au niveau mondial, tous les fabricants de serveurs, sauf un, ont vu leur chiffre d'affaires progresser au troisième trimestre. Toujours numéro un, HP dispose d'une part de marché en valeur de 32,1% grâce à des revenus en hausse de 22%. Il n'y a guère que Dell qui ait fait mieux avec un chiffre d'affaires en croissance de 25,6% pour une part de marché en valeur de 14,6%. Le Texan se situe ainsi à la troisième place des fabricants dans le monde en termes de revenus. De son côté, IBM reste le numéro 2 mais perd deux points de parts de marché en valeur à 30,2%. Il pâtit de revenus en croissance de seulement 9,9%. Quant à Oracle, il est passé à la cinquième place derrière Fujitsu avec 6,2% de parts de marché et un chiffre d'affaires en baisse de 2,6%. Le repreneur de Sun ne figure même pas dans le Top 5 mondial des fabricants de Gartner en termes d'unités vendues. Egalement numéro un de ce classement, HP est suivi, dans l'ordre, par Dell, IBM, Fujitsu et Nec. Ce dernier est le seul à avoir vu ses livraisons reculer durant le trimestre, en l'occurrence de 2%.
Illustration : serveur HP Integrity série BL860c (crédit photo : HP)
(...)
| < Les 10 documents précédents | Les 10 documents suivants > |