Flux RSS
108538 documents trouvés, affichage des résultats 8281 à 8290.
| < Les 10 documents précédents | Les 10 documents suivants > |
(20/04/2010 15:43:35)
HP/3Com rationnalise sa gamme de produits
Fruit de l'union entre 3Com et HP, l'offre HP Networking a été présentée comme la combinaison du meilleur des deux mondes. Cette offre se décompose en plusieurs types de famille, les séries A (haute performance), V (pour les petites entreprises), E (pour les entreprises moyennes) et S (Security), qui se distinguent par le segment de marché adressé. Pour l'ensemble de ces produits, l'équipementier souligne que l'infrastructure réseau est jusqu'à deux fois plus rapide avec une consommation énergétique réduite de moitié. A noter que sur le plan de la sécurité, HP a étendu sa gamme HP Secure Advantage avec l'outil de sécurité de 3Com, Tipping Point.
L'offre HP Networking est pilotée par Marius Haas, Vice-Président Senior et Directeur Général. Elle est rattachée à la division entreprise, serveurs, stockage et Networking d'HP, dirigée par David Donatelli.
3Com, une marque en péril ?
Lors de cette présentation, les deux responsables ont indiqué qu'il y avait très peu de chevauchement entre les produits HP Pro Curve et 3Com. David Donatelli a précisé qu'il n'y avait pas de plan pour faire disparaître les produits 3Com.
Mark Fabbi, analyste au Gartner, estime que ces propos relèvent du « politiquement correct » en ajoutant : « il est évident qu'ils rassurent la base installée de clients, mais en regardant de plus près, on constate un début de changement notamment à travers les investissements sur les plateformes ». Par exemple, les commutateurs 3Com WLAN disposent d'un outil de gestion plus performant que ceux proposés par HP Pro Curve. Il y a donc des chances que ces derniers disparaissent. Autre signe plus parlant, pointé par l'analyste, le produit phare de 3Com, le commutateur de coeur de réseau H3C S12500, concurrent direct de Cisco, devient le A 12500.
S'inscrivant dans la stratégie HP Converged Infrastructure, l'offre HP Networking ressemble à un inventaire optimisé avant la réunion des différents produits et marques sous la même bannière.
L'Assemblée Nationale passe au processus législatif 2.0
En 2009, l'Assemblée Nationale avait modifié son règlement afin d'instituer une étude d'impact de chaque projet ou proposition de loi. Aujourd'hui, les citoyens internautes peuvent contribuer à ces études d'impacts en les commentant. Cette possibilité est ouverte pour les lois déposées sur le bureau de l'Assemblée après le 17 mars 2010.
Déposer un commentaire sur un projet ou une proposition de loi est soumis à une procédure classique sur tous les sites web participatif. Le commentateur doit s'identifier avec nom, prénom et adresse e-mail valide et saisir un code de contrôle en retranscrivant un captcha. Le texte du commentaire est limité à 4000 signes de texte pur. Les commentaires ne sont pas rendus publics mais juste mis à la disposition du rapporteur du texte qui peut les résumer ou les incorporer dans son rapport, en annexe de l'étude d'impact. Les données nominatives collectées ne sont conservées que jusqu'à l'adoption du texte et peuvent permettre au rapporteur de demander des précisions. Une telle politique a comme effet de ne pas permettre de tenir compte des commentaires précédents (soit pour abonder, soit pour contredire).
L'Assemblée Nationale va également devoir apprendre à gérer des contributions nombreuses... à moins de juste les oublier. L'avenir seul dira si cet outil participatif et citoyen aura juste été un gadget de communication ou au contraire un véritable progrès démocratique. (...)
Trimestriels IBM : les services reprennent doucement
IBM a enregistré une hausse de 13% de son bénéfice net sur son premier trimestre fiscal, clos le 31 mars dernier. Son chiffre d'affaires a progressé de 5,3%, à 22,86 Md$, par rapport au premier trimestre 2009. Big Blue le doit principalement à sa division Global Technology Services (GTS qui regroupe les services IT, la maintenance, le conseil en infrastructure et l'outsourcing), dont le chiffre d'affaires a augmenté de 6,3%, à 9,3 Md$, ainsi qu'à sa division Logiciels, en hausse de 10,6%, à 5 Md$. Cette dernière regroupe la partie Information Management (Cognos, DB2, l'ECM avec FileNet, Informix et Infosphere), mais aussi les offres Lotus, Rational, Tivoli, WebSphere, ainsi que les logiciels destinés à ses mainframes System z. La marge brute de sa division GTS s'établit à 34,4% et celle de sa division Logiciels est toujours aussi élevée : 84,6% (84,2% au premier trimestre 2009). A noter la hausse de 23% sur les ventes de logiciels d'administration Tivoli et de 13% sur les produits middleware WebSphere.
En revanche, le chiffre d'affaires de l'autre activité de services, Global Business Services (GBS, soit le conseil et l'intégration de systèmes et d'applications) reste pratiquement étal, à 4,41 Md$. Prise dans son ensemble, l'activité services d'IBM, qui rassemble GTS et GBS et pèse 60% du chiffre d'affaires global, n'aura donc progressé que de 4,2% sur ce premier trimestre, à 13,7 Md$. Big Blue souligne néanmoins qu'il a signé sur la période treize contrats de services dépassant les 100 M$, ce qui atteste tout de même d'une certaine reprise des investissements.
Hausse sur les projets décisionnels et Smart Planet
Sur ce trimestre, Sam Palmisano, le PDG d'IBM, attire l'attention sur les bons résultats obtenus par le groupe dans trois domaines : les activités liées aux applications analytiques (BI), les solutions Smarter Planet (projets de développement durable dans les villes autour d'une meilleure gestion de l'énergie, des transports et des questions de sécurité) et, enfin, les économies en croissance. Les revenus de la zone Asie/Pacifique ont augmenté de 10% à 5,3 Md$ (mais de 1% seulement à taux de change constant). La zone EMEA (Europe, Moyen-Orient, Afrique) a progressé de 5% à 7,6 Md$ (-2% à taux de change constant) et la zone Amériques de 2% à 9,5 Md$ (étal à taux de change constant).
Illustration : Sam Palmisano, PDG d'IBM (crédit photo : IBM)[[page]]
System x en hausse, System p et z en baisse
La division Systems & Technology qui couvre son activité matériel a de son côté augmenté de 4,9% par rapport à l'an dernier, à 3,385 Md$. Sur cette partie, les performances sont inégales. Ainsi, les ventes de System x (plateformes x86 sur processeurs Intel et AMD, systèmes de stockage) ont grimpé de 36%, mais celles réalisées sur les technologies 'maison', les System z (mainframes) et Power (pSeries et iSeries), ont chuté de 17%. IBM escompte toutefois une remontée sur ces matériels un peu plus tard cette année, avec la livraison des prochains System z.
Quant à l'activité Global Financing d'IBM, qui ne représente que 2,3% de son chiffre d'affaires global, elle recule de 7,1%, à 537 M$, mais avec une marge brute de 49,8%.
Pour Dov Levy, analyste financier chez CM-CIC Securities, ces résultats mitigés confirment que le groupe n'a pas encore profité de la reprise de la demande « qui s'annonce progressive ». Il estime cependant que celle-ci devrait s'accélérer à partir du deuxième semestre si l'on considère « la forte progression des prises de commandes dans le conseil qui montre que les grands groupes recommencent sérieusement à réfléchir » à réactiver « leurs projets de transformation ».
Enquête BMO 2010 : 48 500 projets de recrutement dans l'IT
L'enquête Besoins en main d'oeuvre (BMO) 2010 publiée le 14 avril par Pôle emploi dénombre pas moins de 48 564 projets de recrutement IT cette année dans l'Hexagone, sur un total de 1,7 million projets toutes fonctions confondues. Malgré des prévisions plus optimistes que l'année dernière, presque 40% des prévisions d'embauche sont toujours assorties de difficultés de recrutement selon les déclarations des employeurs. Ainsi, pour 56,9% des entreprises, les cadres et les ingénieurs d'études, les spécialistes de la R & D et les chefs de projets informatiques, font partie des profils difficiles à trouver, avec 14 897 projets d'embauches jugés difficiles. Également concernés, mais dans une moindre mesure, les techniciens d'études et de développement informatique (webmasters, programmeurs), avec près de 9 000 prévisions d'embauches déclarées en 2010 et un peu plus de 3 500 recrutements complexes à réaliser, soit un taux de 39,7%.
La difficile adéquation offre et demande
Selon les employeurs concernés, les difficultés de recrutement actuelles sont avant tout liées au profil inadéquat des candidats (dans 42% des cas), ou, tout simplement à une pénurie de candidats (pour 40% des employeurs). Pour les entreprises, la formation s'impose donc comme la première solution aux difficultés d'embauche rencontrées. La formation des candidats venant de l'extérieur (32%) étant privilégiée à celle des salariés déjà présents dans l'entreprise (18%). Certains recruteurs potentiels s'estiment même sans recours face aux difficultés de recrutement : 10% d'entre eux déclarent n'avoir aucune solution et 13% préfèrent différer l'embauche. Enfin, les anticipations des entreprises quant à l'évolution de leur activité sont plutôt favorables dans l'informatique : ainsi, pour près d'un employeur sur deux, les nouvelles technologies constitueront, cette année, l'un des domaines de renforcement des besoins en compétences.
Crédit photo: Pôle emploi
(...)
Aux Etats-Unis, le cloud progresse, mais les frustrations aussi
Aujourd'hui, le cloud se développe un peu de manière anarchique, mais cette croissance entraîne une certaine frustration, un mot que l'on entend de plus en plus dans les discussions sur les services hébergés. Par exemple, les clients du cloud et aussi certains fournisseurs, tempêtent contre le manque d'information sur les données et sur les standards de sécurité. Certains pointent du doigt l'absence de règles qui imposent aux fournisseurs de services hébergés d'indiquer la localisation des données des clients, surtout si elles sont hébergées hors des Etats-Unis et donc non soumis à la loi américaine sur la sécurité.
Lors de la SaasCon 2010, qui s'est tenu au début du mois, Ed Bellis, responsable de la sécurité du système d'information chez Orbitz, agence de voyage en ligne, a expliqué le choix de son entreprise d'utiliser le cloud pour améliorer la productivité et recentrer les managers sur leur coeur de métier. Néanmoins, le dirigeant interpelle les différents acteurs en demandant d'urgence des standards de sécurité pour le cloud. Orbitz, qui est à la fois utilisateur et fournisseur de services cloud, indique qu'il doit répondre à des exigences de sécurité à tous les niveaux, allant de l'enquête sur site à l'inspection des datacenters.
Des standards et du poids
Les normes élaborées par la Cloud Alliance Security, un groupe sans but lucratif financé par les utilisateurs et les fournisseurs de cloud pourrait constituer une solution. Les normes devraient afficher les données dans un format commun, permettant aux clients, selon Ed Bellis de savoir exactement « quelle est notre position sur la sécurité ». Le responsable indique que l'existence de telles normes réduirait d'un tiers son travail d'enquête.
[[page]]
De son côté, Keith Waldorf, vice-president des opérations de Doctor Dispense, spécialiste dans la e-prescription, a été très critique sur l'inflexibilité et les termes des contrats de certains fournisseurs. Il donne comme exemple, un accord passé dans le domaine matériel et logiciel qui était tellement verrouillé qu'il lui interdisait de profiter des améliorations ou des nouveautés du fournisseur. « Nous avons cassé ce contrat pour chercher un nouveau prestataire » souligne le dirigeant, et de préciser « aujourd'hui les accords sur le cloud sont tous sur le même modèle, à la discrétion des fournisseurs ».
Il est probable que les grandes entreprises infléchiront cette orientation lors de la négociation de leur contrat. Ainsi, dans le contrat pour l'utilisation des Google Apps, la ville de Los Angeles a demandé à Google d'accepter le paiement de dommages en cas de violation de l'accord de non divulgation. Mais la plupart des utilisateurs n'ont pas le même poids, explique Jim Reavis, fondateur de la Cloud Security Alliance.
La Mutualité Française se modernise en virtualisant
La DSI du Groupement de Patrimoine et de Moyens de la Mutualité Française exploite le système d'information NSI de gestion des contrats de l'Union Nationale de la Prévoyance de la Mutualité Française, soit 414 000 contrats individuels et 107 000 contrats collectifs distribués sur 120 sites en France. NSI repose sur une technologie classique trois tiers en environnement HP-UX 11.11 et Oracle Application Server 4, les postes clients utilisant la JVM de Microsoft en environnement Windows.
Les machines étaient des serveurs utilisant l'architecture HP PA-Risc dont le cycle de vie était en phase d'obsolescence. Il fallait donc envisager son remplacement tout en augmentant sa performance. Pour l'effectuer tout en limitant l'impact sur les logiciels, la Mutualité Française a choisi de migrer vers une architecture sous HP-UX sur HP Integrity Itanium avec une virtualisation de l'environnement basé sur la technologie HP-UX Integrity VM.
HP a accompagné en direct la Mutualité Française dans le projet, faute de compétences en France au sein du réseau de revendeurs.
Le coût du projet n'a pas été dévoilé. (...)
Les hôpitaux en phase de mutualisation des projets IT
La dépense informatique et télécoms des hôpitaux français devrait passer de 1,3 milliards d'euros en 2009 à 1,6 en 2013 selon IDC. Elle avait progressé de plus de 3% entre 2008 et 2009 faisant fi de la crise économique. Ce secteur est donc appelé à une forte croissance. L'informatisation des hôpitaux français est globalement en retard par rapport à l'Europe du nord. Elle est donc en phase de rattrapage. Elle doit également s'engager dans la modernisation des applications et des infrastructures tout en portant de nouveaux projets comme le Dossier médical personnalisé. Pour les DSI concernés, c'est la quadrature du cercle.
Les besoins sont toutefois différents d 'un établissement à l'autre et l'étude prend soin de segmenter le secteur. Rien de commun entre les grands CHU et les hôpitaux de taille plus ordinaire. Il existe selon l'Insee 2 700 centres hospitaliers en France, mais avec des budgets très variables. L'hôpital de proximité peut très bien compter sur un budget annuel de 1 million d'euros alors que les grands hôpitaux se retrouvent à 10, 12, 15 ME. Les ressources sont faibles et le plan « hôpital 2012 », dont un volet seulement concerne l'informatique, ne suffit pas à combler les besoins.
« Malgré leurs manques de moyens, les hôpitaux français ont dégagé un levier d'investissement intéressant, il s'agit de la mutualisation » nous explique Cyril Meunier qui a dirigé l'étude d'IDC. 58% des établissements interrogés l'envisagent dès 2010 ou 2011.Cette mutualisation apparaît sous de multiples formes.
[[page]]
Elle vient par exemple de la fusion d'établissements ou de la création de plate-formes régionales. Le partage d'infrastructures et d'applications permet également de réduire les investissements de chaque établissement, une démarche encouragée par les pouvoirs publics. Et certains hôpitaux se mettent ensemble sur un appel d'offres.
Déjà 52% des établissements sont raccordés à un réseau de santé régional
Pour les hôpitaux de taille moyenne ou petite, cette mutualisation est un passage obligé. Elle est favorisée par la mise en place des Agences régionales de santé ou des communautés hospitalières. Déjà 52% des établissements sont raccordés à un réseau de santé régional, 12% vont le faire dans les années à venir. 44% d'entre eux sont reliés à un réseau inter-hospitalier, 9% l'envisagent. De leur côté, les établissements de taille importante pourraient adopter des rôles nouveaux, comme hébergeur d'applications, fournisseur de logiciels, ou gestionnaire d'infrastructures, bref piloter pour d'autres établissements des développements informatiques.
Cette mutualisation aura un impact sur les développements d'applications. Selon l'étude d'IDC, cinq secteurs sont concernés : les projets médico-techniques (58% des réponses), ceux de gestion médicale (50%), la gestion administrative du patient (47%), la gestion générale (financière économique et RH pour 41%, enfin celle du dossier médical (41%). Les hôpitaux, par la mutualisation, vont ainsi impacter le secteur des éditeurs spécialisés. Il en existerait 400 sur ce secteur qui est donc très fragmenté. IDC en a étudié 11 et pronostique une recomposition des éditeurs spécialisés.
(*) IDC mène tous les deux ans une étude en France sur l'informatisation des hôpitaux, elle entre dans le cadre d'une recherche européenne : EMEA IDC Health Insights. Cette dernière édition est basée sur une enquête menée auprès de 153 établissements de plus de 200 lits (dont 17 avec plus de 1 000 lits) aux mois de novembre et décembre derniers.
Neutralité du net et tarif, un couple qui se cherche
Renvoyant dos à dos les opérateurs télécoms et les acteurs de l'internet, Benjamin Bayart, le président de French Data Network, un FAI du « troisième type » étant donné que c'est une association, a en effet ravivé le débat en rappelant que la seule net neutralité qui pouvait être appliquée à internet était la règle qui avait fondé le réseau mondial. C'est à dire qu'en tout point du réseau, tous les services et tous les contenus présents sur la toile doivent être accessibles. Cette règle renvoie au principe politique de la liberté d'expression, un droit fondamental inscrit dans la déclaration des droits de l'homme, comme l'a rappelé le Conseil Constitutionnel dans sa décision censurant la première version de la loi Hadopi et qui estimait qu'Internet participait à l'exercice de ce droit fondamental.
Malheureusement, Patrick Raude, membre du collège de l'Arcep et modérateur de la table ronde, a écourté, trop rapidement, l'intervention de Benjamin Bayart et n'a pas demandé aux deux opérateurs présents de répondre à l'interpellation du président de French Data Network, c'est à dire Stéphane Richard, le directeur général de France Télécom, et Emmanuel Forest, le vice-président et directeur général délégué de Bouygues Telecom.
De fait, la liberté d'accès à internet n'est pas toujours claire à la lecture des offres commerciales des opérateurs. L'exemple le plus frappant se trouve dans la téléphonie mobile où les fameuses offres d'internet mobile illimité ne proposent, comme l'a rappelé Benjamin Bayart, ni Internet puisque les contenus et les services disponibles sont choisis par l'opérateur, ni l'illimité, étant donné que la consommation est en fait « capée » (plafonnée). Une critique qui avait déjà été émise par l'UFC Que Choisir, il y a quelques mois à la suite de plusieurs cas où des abonnés aux clés 3G de France Télécom avec abonnement illimité s'étaient retrouvés avec des factures prohibitives. La consommation étant en fait limitée non en durée mais en volume.
[[page]]
Un financement vertueux
Poursuivant sa démonstration, le président de French Data Networks a aussi rappelé quelques principes de base. Tout d'abord, contrairement à ce qu'affirment trop souvent des opérateurs télécoms, certains grands acteurs d'internet participent aussi au financement des réseaux par les infrastructures. C'est notamment vrai pour les sites de vidéos en ligne qui investissent dans des réseaux de serveurs (de type serveurs de cache de contenu) placés au plus près des utilisateurs pour réduire les temps de téléchargement ou encore afin de leur permettre d'accéder à du streaming de qualité. Il a également insisté sur le fait que les opérateurs télécoms doivent, eux, se préoccuper d'investir dans la boucle locale, sachant qu'un investissement est financé par l'abonnement payé par les clients.
Si la fibre optique coûte plus chère que le xDSL, il est donc normal et logique, que les opérateurs fassent payer plus cher les abonnements. A ce titre, Benjamin Bayart estime qu'un Mo de vidéo coûte le même prix pour l'opérateur qu'un Mo de mail. Il affirme impensable que les opérateurs tarifent ces deux services différemment. S'il reconnaît que les réseaux câblés ou mobiles connaissent une situation différente de celle des réseaux filaires, leur débit étant partagé entre l'ensemble des utilisateurs et non dédié, la seule différenciation tarifaire dont il pense qu'elle peut être mise en place porte sur le volume consommé et non sur le type de services ou de contenus consultés par l'internaute.
Ce rappel permet de préciser que les pouvoirs publics doivent s'assurer que les opérateurs n'abusent pas de leur position sur l'accès. Pourtant la situation en Europe est certainement moins difficile qu'aux Etats-Unis où la très forte concentration des acteurs a abouti à la création de duopoles locaux dont un opérateur télécom et un opérateur du câble. L'association de ces deux opérateurs peut effectivement faire peser des menaces sur le libre accès à internet, surtout quand l'un de ces acteurs, dans le cas américain Comcast, devient aussi un acteur de poids sur le marché des contenus, notamment par l'acquisition de NBC Universal.
| < Les 10 documents précédents | Les 10 documents suivants > |