Flux RSS
108538 documents trouvés, affichage des résultats 2811 à 2820.
| < Les 10 documents précédents | Les 10 documents suivants > |
(26/08/2011 12:20:46)
Rory Read, ex Lenovo, prend les rênes d'AMD
Après 8 mois de recherches, AMD s'est trouvé un nouveau président. Il s'agit de Rory Read, ex directeur des opérations chez Lenovo. Il aura pour mission de développer l'activité d'AMD dans d'autres marchés, notamment les tablettes et la téléphonie mobile et de continuer à mener la bataille contre les rivaux du fondeur, à savoir Intel et ARM. La firme de Sunnyvale souhaite, en effet, intégrer ses puces Fusion dans des tablettes, segment sur lequel elle n'a pratiquement aucune présence. AMD a également perdu des parts de marché, par rapport à Intel, dans le domaine à forte marge des processeurs pour serveurs, bien que la firme ait gagné des points sur le marché des puces pour PC.
« AMD souhaite clairement se renforcer dans le domaine de la mobilité, et la clé consistera à nouer des relations fortes avec les fabricants d'ordinateurs », a déclaré Dean McCarron, analyste chez Mercury Research. Bien qu'il ait augmenté ses parts de marché, la présence d'AMD sur le marché mobile est faible. Selon le cabinet, la part des processeurs x86 n'était que de 19,4% au cours du deuxième trimestre 2011, contre 79,9% pour les puces Intel.
Explorer les opportunités de croissance
Agé de 49 ans, Rory Read a contribué au succès de Lenovo où il était directeur général. Sous sa direction, le fabricant de PC avait renoué avec une croissance à deux chiffres et gagné en parts de marché. Avant Lenovo, il avait passé 23 ans chez IBM, où il avait occupé un large éventail de fonctions de direction.
Rory Read passera les 100 premiers jours de son mandat tant à explorer les opportunités de croissance qu'à forger des partenariats. « AMD a la possibilité d'intégrer ses puces Fusion sur de nouveaux marchés et de croître dans le domaine du cloud computing et sur le marché des infrastructures pour datacenters », a t-il déclaré.
AMD était en quête d'un nouveau PDG, après le départ de Dirk Meyer suite à un désaccord de ce dernier avec le conseil d'administration sur la future stratégie mobile de l'entreprise.
Thomas Seifert qui occupait le poste de PDG par intérim, récupère son poste initial de directeur financier.
Illustration : Rory Read, président d'AMD (crédit : D.R.)
(...)
Tim Cook, successeur naturel de Steve Jobs à la tête d'Apple
Avec la démission de Steve Jobs au poste de PDG d'Apple, Tim Cook, longtemps identifié comme «le gars des opérations » d'Apple, doit prouver qu'il est capable de diriger totalement l'entreprise. Un salarié de la firme de Cupertino nous a ainsi confié qu'il était l'homme qui avait industrialisé Apple. Le général en chef de l'armée qui a assuré la bonne marche de l'entreprise au coté d'un Steve Jobs visionnaire. Considéré par certains comme le successeur naturel de Steve Jobs, c'est lui qui, à son poste de directeur général, avait en charge les opérations commerciales et industrielles de l'entreprise au niveau mondial, y compris la gestion de sa chaîne d'approvisionnement, de services et de support.
Peut-être plus important encore, Tim Cook a déjà dirigé Apple, en 2004 et en 2009, quand Steve Jobs a du se mettre en congé maladie pour soigner son cancer, comme ça été le cas depuis le mois de janvier 2011. Mais il reste encore de nombreuses questions quant à sa capacité à maintenir l'esprit d'innovation incarné par le co-fondateur Steve Jobs, dont le style de gestion entêté a inspiré ses collaborateurs, et dont la vision a permis à l'entreprise d'être toujours en avance sur les tendances du marché. « Steve Jobs a toujours été le visionnaire d'Apple, et Tim Cook, « le gars des opérations ». C'est un bon dirigeant. Le problème peut se poser dans un ou deux ans, au moment où l'entreprise devra décider d'orientations qui ne sont pas visibles aujourd'hui, » a déclaré Roger Kay, président d'Endpoint Technologies Associates.
Steve Jobs, toujours dans l'ombre de Tim Cook
En tout cas, Steve Jobs reste chez Apple comme Président du Conseil d'Administration, au moins pour l'instant, et il restera impliqué dans la conception et les décisions concernant les produits, du mieux qu'il pourra. « Steve Jobs reste président du conseil d'administration d'Apple, de sorte que vous parlez de quelqu'un qui va continuer à avoir une influence sur les produits Apple dans les années à venir, » a déclaré Michael Gartenberg, analyste chez Gartner. Mais on sait peu de choses sur l'état de santé de l'ancien CEO d'Apple, et dans la lettre qu'il a adressée aux salariés mercredi, celui-ci laisse penser que son rôle sera moins important dans l'avenir. « J'ai toujours dit que, si jamais, le jour venait où je ne pourrais plus assumer mes obligations et mes fonctions au poste de PDG d'Apple, je serais le premier à vous le faire savoir. Malheureusement, ce jour est arrivé, » écrit-il dans sa lettre.

« La force de Steve Jobs a été de voir les marchés avant qu'ils n'existent, comme ça a été le cas pour les tablettes tactiles. Et il a peut-être prévu une foule de produits pour qu'Apple continue à réussir, » fait remarquer Roger Kay. Tim Cook a été clairement son premier choix comme successeur à la tête de l'entreprise. Il a « fortement recommandé » au conseil de le nommer à ce poste, comme il le dit dans sa lettre aux salariés.
Une position très forte sur presque tous ses marchés
Avec l'iPad, Apple est dans une position quasi indétrônable sur le marché des tablettes, et en forte position sur celui des smartphones avec l'iPhone. Il faudrait vraiment que Tim Cook prenne de très mauvaises décisions pour mettre l'entreprise en difficulté. Et il est peu probable que cela arrive, comme l'estiment les analystes. « Apple, ce n'est pas non plus que Steve Jobs: c'est aussi des équipes au design et au marketing qui ont contribué à lancer des produits qui ont eu du succès, » a déclaré Michael Gartenberg. Parmi eux, Jonathan Ive, senior vice président du design industriel, à qui Apple doit l'iMac, l'iPhone, l'iPad et l'iPod.
En tant que Chief Operating Officer, Tim Cook a également dirigé la division Mac d'Apple. C'est également lui qui a restructuré le commerce de détail de l'entreprise avec la mise en place des boutiques Apple. Avant de rejoindre Apple en 1998, Tim Cook était vice-président chargé de la production et de l'approvisionnement chez Compaq. « Tim Cook peut ne pas égaler Jobs dans sa capacité créatrice, mais il est la meilleure personne pour relier toutes les composantes d'Apple, » ajoute l'analyste de Gartner « Il faut, à la barre, une personne capable de poursuivre les opérations, » a-t-il déclaré.
Crédit photo : Apple
Corero Network Security se développe en France
Le fabricant américain de solutions de sécurité fait de l'Europe son chantier cet été. Entre juin et juillet derniers, Corero Network Security (CNS) y a ouvert pas moins de trois bureaux, en Grande-Bretagne, en France et en Allemagne. Son implantation dans l'UE ne s'arrêtera d'ailleurs pas là puisqu'il va encore ouvrir un bureau en Espagne en septembre puis en Italie dans la foulée. En France, la direction est assurée par Emmanuel Le Bohec, nommé au mois d'août Régional Manager également en charge de la Belgique, du Luxembourg, de la Suisse Romande et de l'Afrique Francophone. Pour l'heure, il n'a pour unique collaborateur que Guillaume Delomel recruté en juin en tant que responsable technique.
Initialement éditeur et intégrateur de son propre logiciels de CRM, le groupe Corero n'est présent que depuis peu sur le marché de la sécurité informatique. Plus précisément depuis mars 2011, date à laquelle il a racheté son compatriote Top Layer, un spécialiste reconnu de la sécurité rebaptisé Corero Network Security. Grâce à lui, CNS dispose d'ores et déjà d'un catalogue de trois grands produits : le switch applicatif IDSB dédié au monde de la voix et des centres d'appels, le système de prévention d'intrusions de nouvelle génération Top Layer IPS et le système de protection contre les attaques par déni de service Top Layer DDoS Defense.
Illustration : Emmanuel Le Bohec
Crédit Photo : D.R
(...)(26/08/2011 10:11:21)
1 000 milliards de pages vues sur Facebook en juin
Ces données compilées par cette société propriété de Google, Double Click Adplanner, montrent que Facebook a été visité par 870 millions d'utilisateurs uniques en juin, soit plus de mille milliards (1.000.000.000.000) de pages, pour une moyenne de 1.149 pages vues par utilisateur.
Ce nombre de visiteurs uniques dépasse le nombre de membres revendiqués par Facebook (750 millions), ce qui peut s'expliquer par le fait qu'on peut consulter Facebook sans en être membre ou que ses utilisateurs peuvent se connecter de divers lieux et ainsi grossir les rangs des visiteurs uniques.
Un déclin relatif
Même si ces chiffres ne sont que des estimations générées par diverses sources, y compris des analyses extérieures de marché et des données de consommateurs issues de sites tiers, elles vont à contre-courant de rapports récents qui montraient que l'utilisation de Facebook dans les pays précurseurs (comme les Etats-Unis) était en déclin.
Le site ayant enregistré le deuxième plus grand nombre de pages vues en juin est le site de partage de vidéos YouTube (propriété de Google), qui a engrangé 100 millions de pages vues et 790 millions d'utilisateurs uniques.
Il n'est pas étonnant que, du fait de son fonctionnement par invitations et de sa date récente de lancement, le réseau social Google+ ne se soit pas classé dans les dix premiers sites.
(...)(26/08/2011 10:03:05)L'Université de Perpignan se dote d'un datacenter modulaire Bull
L'Université de Perpignan Via Domitia accueille près de 10 500 étudiants répartis dans 5 UFR et 3 Instituts (IAE, IUT et un institut catalan transfrontalier). Pour répondre aux besoins en terme de puissance informatique, l'université a inauguré un nouveau centre de calcul le 8 juillet 2011.
Après appel d'offres, l'établissement a choisi d'installer un Mobull du groupe Bull fourni par ServiWare, une filiale du constructeur. Le Mobull est un container au format standard ISO 45 d'une puissance de 227 teraflops/container ne nécessitant que très peu d'infrastructures sur place et pouvant être mis en service en huit semaines. Chaque container est isolé, étanche et intégré (y compris du point de vue du refroidissement à très haut rendement énergétique), pouvant être installé autant à l'extérieur sur un parking que dans un bâtiment.
Le coût du projet n'a pas été précisé.
Illustration: Mobull de Bull
Crédit Photo: Bull
(...)(26/08/2011 09:46:50)Trimestriels Acer : Victime d'une faible demande
Acer publie les résultats financiers de son deuxième trimestre fiscal. Le constructeur affiche une baisse de 32% de son chiffre d'affaires mondial qui est de 3,5 milliards de dollars. La perte opérationnelle se monte à 246 millions de dollars. Le profit après impôts est négatif de 236 millions de dollars US.
Ces chiffres du deuxième trimestre viennent après un début d'année dans le rouge. Le Pdg mondial Gianfranco Lanci avait dû quitter le navire fin mars, son successeur anticipait un repli des ventes de 10% pour le deuxième trimestre, c'est 32%. Pour expliquer ce dérapage, le constructeur pointe l'état des stocks dans la distribution en EMEA, la réorganisation, toujours en EMEA qui a coûté 30 millions de dollars en raison de la situation économique morose et des indemnités de départs de hauts dirigeants.
Les dirigeants d'Acer essaient d'anticiper d'éventuelles critiques. Ils mettent en avant leur changement de modèle économique et leur volonté de mieux maîtriser leurs stocks en fonction de la demande du marché (qui est faible). Pour les deux trimestres à venir, Acer prévoit une marge améliorée et une activité plus stable. Sur le 1er semestre, le chiffre d'affaires a baissé de 26% à 8 milliards de dollars US.
RSA étoffe son offre de protection des infrastructures
Le service RSA CyberCrime Intelligence Service apporte des fonctionnalités permettant aux entreprises de collecter des informations relatives à l'ensemble des systèmes de l'entreprise pouvant potentiellement faire l'objet d'une attaque malveillante.
« Les sociétés IT se concentrent traditionnellement sur une architecture de sécurité multicouches externe afin de protéger leur réseau. Toutefois, il est aujourd'hui indispensable d'étendre le même type d'architecture de sécurité en interne. En effet, en vertu du principe de bonne gouvernance, il faut partir de l'hypothèse que le malware a déjà pénétré dans l'entreprise et donc faire le maximum pour limiter les dommages », selon Phil Blank, directeur Sécurité, Risque et Fraude chez Javelin Strategy & Research.
Des rapports quotidiens sur les équipements infectés
Selon Rober Bertschinger, country manager pour la Suisse chez RSA «Tous les types d'entreprises font face quotidiennement à de nombreuses tentatives d'intrusion. Bien que la grande majorité de ces attaques soient décelées à temps, chaque organisation doit aujourd'hui partir du principe qu'elle est compromise. Le système mis en place par RSA CyberCrime Intelligence Service permet d'obtenir des rapports quotidiens sur les ordinateurs, réseaux ou autres ressources de l'entreprise qui pourraient être infectés».
Au-delà de ce système, RSA propose également un service de conseil professionnel afin d'accompagner les entreprises dans l'établissement et la mise en oeuvre d'un plan de réduction des risques liés à la cybercriminalité.
Facebook abandonne Places, mais pas la géolocalisation
Outre le fait de déployer des fonctions de partage et de contrôle des données similaires à celles de son concurrent Google+, Facebook a également décidé de supprimer Places, son service de géolocalisation. Ce dernier va être modifié et ne sera plus seulement limité aux smartphones. En effet, Facebook offrira à ses utilisateurs la possibilité de partager l'endroit où ils se trouvent à partir de n'importe quel PC et tablettes. Parmi les autres fonctionnalités figure également la possibilité de rajouter son emplacement sur des photos, sur les statuts et sur des messages.
L'idée est d'ajouter du contexte sur l'emplacement indiqué que les internautes souhaitent partager au lieu de « checker » leur arrivée dans leur café préféré plusieurs fois dans la même semaine. « Maintenant, lorsque les utilisateurs cliqueront sur « Check In », ils seront dirigés vers leur statut et auront l'occasion d'ajouter des éléments contextuels et d'indiquer où ils sont, avec qui ils se trouvent où encore ce qu'ils font », a indiqué un représentant de Facebook à nos confrères de PCWorld.
Un modèle différent par rapport à celui de Foursquare
L'idée est très différente de celle mise en oeuvre dans le modèle Foursquare où l'on s'enregistre pour faire savoir à ses amis où l'on est, profiter d'affaires dans l'endroit où l'on se trouve et gagner des bons de réduction Foursquare. Facebook utilise le modèle de localisation adoptés par les autres réseaux sociaux comme Twitter, où l'on ajoute des données relatives à la localisation sur les messages que l'on publie plutôt que de partager la localisation juste pour le plaisir de le faire.
Places peut bien s'arrêter, mais Facebook indique qu'il continuera à permettre aux entreprises de proposer des coupons virtuels aux utilisateurs s'ils s'enregistrent sur un endroit particulier dans Facebook. La seule différence est que Facebook proposera seulement des affaires en lien avec la localisation effective de l'utilisateur plutôt que de proposer différents « deals » le long du chemin à parcourir.
On ne sait pas bien si Facebook a abandonné Places parce que le service ne disposait pas d'une interaction suffisante avec ses utilisateurs, à l'opposé de Foursquare ou de Gowalla . Ou si Facebook souhaite juste faire évoluer son concept de géolocalisaion. Trois ans seulement après sa création, Foursquare vient d'être valorisée 600 millions de dollars dans le cadre d'une levée de fonds de 50 millions de dollars.
Illustration: Crédit photo: Facebook
(...)
Le marché BI progresse avec les outils d'ETL et de MDM, montre PAC
En 2011, les logiciels d'intégration de données, de manipulation et de restitution de l'information, et les services qui leur sont associés, vont générer sur l'Hexagone un chiffre d'affaires supérieur à 2 milliards d'euros, estime Pierre Audoin Consultants. Le cabinet d'analyses a publié début août une étude sur « le marché de la BI et du Data Management en France ». D'ici à 2014, le secteur devrait afficher une croissance moyenne de 5,3%, supérieure de près d'un point et demi à celle du marché français des logiciels et services IT dans son ensemble. Déjà, en 2009, les outils du décisionnel avaient beaucoup moins pâti de la crise que d'autres domaines et enregistré en 2010 une croissance de 4%. La partie licences et maintenance a représenté près du tiers de ce marché l'an dernier.
Les outils d'ETL (extraction, transformation, loading) destinés à l'intégration des données restent un gros marché qui présente une croissance assez forte. Au niveau mondial, on peut en juger par la progression d'Informatica (*). « Cela progresse de la même façon chez Talend et IBM », souligne Olivier Rafal, directeur Information Management chez PAC et auteur de l'étude.
MDM en France : des acteurs locaux ont évangélisé
De fait, au-delà des projets de Business Intelligence identifiés comme tels, qui nécessitent d'organiser les données et de s'assurer de leur qualité, de nombreux autres projets s'appuient sur les outils d'Information Management, liés à la manipulation et à l'analyse des données structurées. En France, il y a notamment une bonne croissance sur le MDM [Master Data Management, gestion des données de référence]. « C'est un peu une spécificité française, note l'analyste de PAC. Nous sommes au niveau des Etats-Unis dans ce domaine. Cela s'explique sans doute par le fait qu'il existe des acteurs locaux comme Orchestra Networks et Talend qui ont évangélisé le marché et sont bien présents. Il y a une prise de conscience sur l'importance de la qualité des données qui semble mieux se faire en France que sur d'autres marchés. C'est moins flagrant en Allemagne, par exemple. »
La croissance en 2011 va se répartir entre les outils d'ETL, qui représentent encore l'essentiel de la progression, et les logiciels analytiques. Il n'y a pas eu énormément de projets uniquement étiquetés BI. « Il s'agit davantage de projets tactiques tels que la mise en place d'un MDM dans un domaine particulier, explique Olivier Rafal. Si cela fonctionne, on l'étend ensuite dans un autre domaine. » De façon générale, il n'y a pas eu de projets mirobolants. Les déploiements restent très ciblés, les entreprises étant déjà bien équipées.
Outre le MDM, parmi les leviers de croissance du marché, PAC liste quatre autres axes. Les applications analytiques en sont un, ainsi que les outils de visualisation de l'information qui peuvent être d'emblée pris en main par des utilisateurs non experts, de façon interactive.
(*) +30% sur son chiffre d'affaires annuel en 2010, par rapport à 2009, à 650 M$.
Crédit illustration : PAC 2011
[[page]]
Par ailleurs, le cabinet d'études estime prometteuse l'intégration entre les outils collaboratifs et les logiciels décisionnels. Enfin, les flux d'informations provenant du web et des réseaux sociaux, en développement constant, constituent une nouvelle source à analyser. Ces données, « de nature et de qualité très diverses », posent un défi à l'industrie qui doit les collecter, les corréler, les indexer et les analyser, souligne PAC. « C'est tout l'enjeu du phénomène Big Data », rappelle Olivier Rafal.
Le recours à des technologies de moteurs de recherche dans le décisionnel a de l'avenir, mais cela reste anecdotique pour l'instant, note l'analyste, même si des éditeurs français comme Exalead (avec ses SBA, search-based applications) et Sinequa ont déjà à leur actif déjà sur des projets dans ce domaine (au Crédit Agricole, notamment pour Sinequa, chez Gefco et à La Poste pour Exalead). D'autres acteurs peuvent y prétendre. « IBM a tous les outils pour le faire, SAS et Microsoft aussi. »
Le réseau de partenaires, un soutien de poids
En France, cinq éditeurs (SAP, Oracle, IBM, SAS et Microsoft) se taillent 63% du marché, dont près de 1/5e pour le premier. Quatre d'entre eux ont présenté de belles croissances. Celle de SAP a pendant un temps un pâti de difficultés liées à l'organisation des équipes commerciales de Business Objects et l'éditeur n'a lancé que récemment sa nouvelle plateforme décisionnelle BI 4.0. Dans le même temps, il y a eu des innovations technologiques venant d'autres offres. Un acteur comme QlikTech, notamment, a beaucoup progressé, parfois victime de son succès, certains outils pouvant lui manquer au niveau architecture pour de gros déploiements ou du côté de gestion de la qualité des données, pointe l'analyste de PAC. « Oracle s'est également mis en ordre de bataille avec ses solutions Hyperion, une belle offre soutenue par les outils middleware de l'éditeur », expose-t-il en ajoutant qu'Oracle a par ailleurs commencé à vendre Exadata (**), sa solution de stockage adapté aux applications décisionnelles (« sans doute une petite dizaine en France »), Atos en étant l'un des premiers intégrateurs. SAS a lui aussi « mis le paquet » sur des partenaires privilégiés comme Accenture.
Microsoft, qui dispose d'une offre « bien intégrée », a renouvelé une partie de ses partenaires et s'applique à les choyer. « Son offre technologique tient la route y compris sur certains gros clients, même si la plupart du temps, elle est plutôt installée chez des clients moins importants. Un outil comme PowerPivot, par exemple, est très séduisant. Si le client a déjà déployé des logiciels comme SQL Server, SharePoint et Outlook, cela peut être intéressant pour lui », note Olivier Rafal. Chez IBM, « l'intégration avec Cognos se passe plutôt bien et les rachats qui ont été faits ont du sens », aussi bien d'un point de vue technologique que pour renforcer sa présence sur le marché. Parmi les autres acteurs, outre des éditeurs comme Microstrategy, QlikTech ou Tibco Spotfire, qui ont réalisé des déploiements assez ciblés, il existe par ailleurs de « petits éditeurs intéressants comme le Français We are Cloud », avec son offre Bime. L'étude de PAC prend en compte plus d'une cinquantaine de fournisseurs (éditeurs et sociétés de services).
(**) Système de stockage de base de données, combinant matériel Sun et logiciels Oracle, optimisé pour le datawarehouse et les processus intensifs de requêtes. De son côté, SAP a lancé il y a quelques mois sa solution HANA (High-Performance Analytic Appliance) pour effectuer en temps réel des analyses haute performance.
Crédit illustration : PAC 2011
| < Les 10 documents précédents | Les 10 documents suivants > |