Flux RSS
108538 documents trouvés, affichage des résultats 6261 à 6270.
| < Les 10 documents précédents | Les 10 documents suivants > |
(20/10/2010 12:50:57)
Apec 2010 : la reprise de l'emploi IT se confirme
Dans l'informatique, neuf entreprises sur dix ont recruté au troisième trimestre 2010, contre huit sur dix au troisième trimestre 2009. C'est ce qu'indique la note de conjoncture trimestrielle publiée aujourd'hui par l'Association pour l'emploi des cadres. Les prévisions de recrutements progressent en outre de 4 points et, pour 58% des entreprises de la high-tech, le volume de recrutement des cadres est plus élevé par rapport à l'an passé : dans l'informatique, 21% des entreprises ont ainsi prévu de recruter des cadres au cours du quatrième trimestre 2010.
Forte demande pour des profils systèmes, réseaux et données
S'agissant du volume des postes à pourvoir par secteur, l'informatique fait encore une fois partie des domaines où les hausses se sont fortement accélérées depuis le début de l'année. Dans l'IT (qui représente 23% de l'ensemble des offres d'emploi des cadres au global), la progression du nombre d'offres s'est maintenu à un haut niveau : + 67% au cours du troisième trimestre 2010, soit 20 147 annonces publiées par l'Apec au cours de cette même période, après + 69% enregistré au deuxième trimestre 2010. S'agissant des offres par fonction, c'est une fois encore l'informatique, avec 3 offres sur 10, qui enregistre l'une des hausses les plus élevées avec + 91%. La plus forte demande de cadres se situe dans le domaine des système, réseaux, données (+ 93%) et dans celui de l'informatique de gestion (+ 87%). L'Apec précise, par ailleurs, que 69% des entreprises qui ont embauché au troisième trimestre indiquent avoir engagé des jeunes diplômés.
Une offre IT pour 29 candidatures
Dans la filière high-tech, une offre a attiré en moyenne de 29 candidatures Toutefois, cette catégorie aurait amorcé un mouvement de baisse. Enfin, 71% des recruteurs IT déclarent qu'il leur a été difficile de trouver des candidats adaptés au poste, dont 16% « très difficile ». L'Apec souligne qu'il faut mettre en relation ce jugement avec le fait que le nombre moyen de candidatures par offre a reculé pour cette fonction.
(...)
Office 365, Microsoft unifie ses services cloud
Difficile de s'y retrouver dans les offres en ligne de Microsoft, celles de collaborations ou de communications unifiées. L'éditeur, s'il dispose d'un catalogue riche de services, a décidé de combiner plusieurs de ses services autour d'une même marque plus fédératrice, Office 365. Cette dernière regroupe la version Online 2010 de SharePoint, d'Exchange et de Lync, ainsi qu'Office Web Apps. Par ailleurs « pour la première fois, nous incluons Office Professionnel Plus 2010 (qui comprend la messagerie électronique, vocale , un réseau social d'entreprise, conférence web, extranet, etc.) sur les postes clients par un abonnement mensuel » souligne Laure Goudiard DuMesnil, responsable produits Online Services chez Microsoft. Cette offensive est une réponse au développement des Google Apps et au lancement récent de LotusLive Note d'IBM.
Une offre à la carte selon la taille de l'entreprise
La distinction d'Office 365 est sa modularité en fonction du type d'entreprises ciblées. Ainsi, pour les TPE (de moins de 25 salariés) ou les professionnels, le service coûtera 5,25€ par utilisateur et par mois. Pour mémoire, l'accès à Google Apps en édition Entreprise coûte 50 dollars par an (soit 3,39 euros par utilisateur et par mois). Pour les entreprises de plus grande taille, Office 365 débute à partir de 1,75€ pour Exchange Online et 9€ pour la suite complète. Celles qui souhaitent intégrer Office Professionnel Plus 2010 débourseront 22,75 euros par utilisateur et par mois. A ces produits, il faut ajouter une version à destination de l'éducation, qui remplacera Live@edu, « elle sortira l'année prochaine, mais sans de date fixée pour l'instant » précise la responsable produits. De même, l'ajout de Dynamic CRM Online est prévu en 2011.
Avant d'être officiellement lancé au premier trimestre 2011, Office 365 est disponible en version bêta dans plus de 13 pays dont la France. A la question de savoir s'il y a une limitation pour l'accès à cette version de test, Guillaume Tourres, responsable média souligne « cela devrait concerner plusieurs milliers de clients » sans en préciser le nombre exact et d'ajouter « sur l'offre Dynamics CRM Online, nous avions été obligé de limiter les accès pour prendre en compte les capacités de nos datacenters ».
L'éditeur va aussi s'appuyer sur son réseau de partenaires, comme les opérateurs télécoms ou les revendeurs de solutions cloud, pour déployer Office 365. Guillaume Tourres rappelle qu'aujourd'hui un million de postes sont hébergés dans le cloud.
Code2Cloud, l'environnement de développement cloud de VMware
Même si l'entreprise a fait la démonstration d'un prototype de son futur service Code2Cloud lors de la conférence développeur SpringOne G2X qui se tient à Chicago, celui-ci ne sera pas disponible avant 2011. Ce service gratuit, qui était plus connu sous le nom de code NAPA, est qualifié de « portail de déploiement » par Rod Johnson, directeur général de la division produits SpringSource de VMware. Il a le considère comme « le chaînon manquant entre l'environnement développeur desktop intégré (IDE) et le déploiement vers le cloud, ». « Aujourd'hui, le processus impliquant le déploiement d'une toute nouvelle application vers le cloud est très fragmenté, » explique Rod Johnson. « Ainsi, il n'existe pas de lien direct entre le développement en interne et les étapes de test et de déploiement qui ont lieu à travers le réseau, » a t-il ajouté. « Comment et à quel niveau suivre son code source? Comment assurer le suivi de ses tests ? Comment procéder à une intégration en continu ? Dans ces domaines, les développeurs sont largement livrés à eux-mêmes, » a déclaré Rod Johnson.
Le service offrira un environnement de développement complet, ainsi que les moyens de déployer facilement des applications dans des cloud privés ou publics à l'image de l'offre VMforce commune à Vmware et Salesforce, ou des Google Apps. L'éditeur canadien Tasktop Technologies a également contribué à l'élaboration de Code2Cloud. Le service apportera un certain nombre d'outils de développement comme SpringSource Tool Suite IDE, le logiciel de contrôle de code source Git, le plug-in de gestion de tâches Mylyn issu du logiciel Eclipse de Tasktop Technologies, l'outil d'intégration Hudson, et un service de suivi compatible avec Bugzilla. Le service VMware propose également un tableau de bord permettant de suivre la progression des projets et le travail des équipes de développement.
Le service sera d'abord disponible via la suite logicielle gratuite SpringSource Tool Suite, ou via un plug-in Eclipse. Le développeur aura la possibilité de lancer un projet dans l'environnement intégré IDE, et poursuivre sur le cloud où il pourra trouver les outils de contrôle de code source, la gestion de l'intégration en continu, et les outils de debugage et de suivi. « Avec Code2Cloud, dès que le développeur a corrigé un défaut dans Eclipse, le code hébergé est instantanément créé, testé et déployé. Tout problème détecté lors de l'exécution en runtime apparaît immédiatement dans le contrôleur et dans l'IDE avec un compte rendu complet du contexte de l'erreur, » a déclaré Mik Kersten, PDG de Tasktop Technologies, dans un communiqué. « Java sera le premier langage pris en charge par cette offre, mais au fil du temps VMware pourra ajouter d'autres langages, » a déclaré Rod Johnson.
Crédit Photo : D.R
(...)(20/10/2010 12:03:14)Une étude du CXP recense le patrimoine applicatif des entreprises
La gestion du patrimoine applicatif (GPA) est une question ancienne mais qui revient au goût du jour. « Nos clients insistent sur le sujet dans l'optique d'une optimisation des coûts et d'une meilleure connaissance de ce patrimoine applicatif » nous explique Laetitia Bardoul, auteure de l'étude du CXP sur ce sujet. Au fil des années, la connaissance de ce patrimoine est devenue complexe et floue pour une entreprise. Les langages utilisés deviennent de plus en plus hétérogènes, les documentations se perdent ou ne sont plus à jour, les compétences en interne changent, certains développements sont réalisées en externe, bref, l'entreprise perd les différentes ressources nécessaires. Pourtant, les applications métiers sont devenues indispensables dans tous les services d'une entreprise.
Pour une DSI, le gain serait pourtant appréciable si elle procédait à une meilleure gestion de son patrimoine applicatif. Elle pourrait connaître le coût réel d'une application, aurait la possibilité de la faire évoluer, de donner une meilleure maîtrise de ses budgets et de son action. Pour l'entreprise, ce serait un meilleur suivi de l'investissement et un meilleur contrôle de la qualité.
La mise en place d'un suivi de la GPA n'est pourtant pas évidente. Les tableaux de bord sont différents suivant le niveau où ils se situent, celui de la DSI ou ceux des responsables applicatifs ou des contrôleurs qualité. Mais la pression financière est de plus en plus forte sur les DSI. Et le mouvement devrait s'accélérer. Une nouvelle norme, CISQ (Consortium of IT Software Qualité) va définir de nouveaux standards de qualité logicielle en 2011. Elle remplacera peu à peu la norme ISO 91-26 qui donnait déjà une liste d'indicateurs, mais s'avérait insuffisante.
Une dizaine de grands éditeurs présents
Pour les éditeurs spécialisés et leurs intégrateurs, la perspective est intéressante« C'est encore un marché en voie de développement, avec une dizaine de grands acteurs » note Laetitia Bardoul (*). Des solutions nouvelles apparaissent en Open Source. Le marché n'est pas figé. Une certaine recomposition s'est opérée, avec le rachat l'an passé par MicroFocus de la société Borland et des outils de tests de Compuware.
Dans son étude, le CXP revient sur la notion même de Gestion du patrimoine applicatif. Il cartographie ensuite les différentes solutions présentes. Elles appartiennent à trois mondes différents : le décisionnel (modélisation d'applications, gestion de portefeuille applicatifs, BI), l'analyse applicative (inventaire et cartographie, analyse de la performance et du code, analyse de la qualité applicative, gestion des actifs), la gestion opérationnelle applicative (modernisation applicative, gestion des développements applicatifs, gestion des environnements de développement).
(*) L'étude cite : ASG, Cast, McCabe, Metrixware, MicroFocus, IBM, Speedware, Checkstyle, Metaware, PMD, Polyspace, Planview, Serena.
Selon Gartner, en 2011 la dépense mondiale des entreprises en IT augmentera de 3,1%
Selon le cabinet Gartner, la dépense mondiale des entreprises dans l'IT atteindrait 2,5 billions (mille milliards) de dollars en 2011. Une augmentation de 3,1% par rapport à 2010 et de 2,4% par rapport à 2009. Au cours des cinq prochaines années, la croissance restera « timide et parfois faible » estime le Gartner, cette dépense atteindra 2,8 billions de dollars en 2014.
« Certains secteurs verticaux comme l'industrie et la finance ne se rétabliront pas avant 2012 ou 2013 » déclare Peter Sondergaard, senior vice président chez Gartner, « les économies émergentes continueront à jouer un rôle de locomotive, supérieur aux économies développées ».
Le Gartner dégage également quatre grandes tendances pour les 20 prochaines années : le cloud, les réseaux sociaux, la mobilité, les stratégies modèles. Le cloud computing va façonner d'une autre manière les relations entre clients et fournisseurs de services et modifier le modèle financier sur lequel elles reposent. Les réseaux sociaux envahissent l'entreprise et brouillent les frontières entre les activités personnelles et professionnelles. Le sans fil crée et va créer de nouveaux services. Enfin, les entreprises auront intérêt à réfléchir à de nouveaux modèles de développement non traditionnels.
Crédit photo : D.R.
Trimestriels Steria : Fin d'année difficile en perspective
La SSII Steria publie les résultats de son 3ème trimestre. Le chiffre d'affaires se monte à 402,8 millions d'euros en croissance organique de 5,2%. Pour les neuf premiers mois de l'année, cette croissance se situe à 2,6%. Mais pour l'ensemble de l'année, le groupe anticipe une croissance organique de 1% et une marge opérationnelle de 7%.
Steria avait précédemment anticipé des chiffres annuels supérieurs. Cette révision est due au Royaume-Uni et à son secteur public. Le nouveau gouvernement a en effet gelé des investissements et renégocie les contrats en cours. Des négociations ont eu lieu entre la SSII et les services britanniques concernés. Cette remise à plat entraîne une perspective moins agréable pour la SSII.
Le chiffre d'affaires trimestriel au Royaume-Uni est quand même en hausse de 5,9%, en France de 8%, dans le reste de l'Europe de 7,7%, mais en Allemagne en baisse de 4,3%. Là encore, Stéria avance que des décalages de projets dans le secteur public expliquent ce revers.
Avertissement sur les résultats annuels à venir
Cette exposition trop forte au secteur public et le « profit warning » ont provoqué une baisse des cours de l'action Stéria. L'annonce d'une bonne croissance trimestrielle étant contre balancée par un avertissement sur les résultats annuels 2010. La société de bourse Gilbert Dupont a publié une analyse très balancée sur la SSII. Côté positif, elle retient : un mix d'activités récurrentes représentant 60% du CA, la nouvelle dynamique commerciale en France, le relais de croissance du BPO, sa position de 2ème SSII française en Inde après Cap (depuis son rachat de Xansa), le positionnement cloud et le partenariat avec Cisco, un carnet de commandes plein.
Pour les aspects négatifs, Gilbert Dupont note évidemment les réductions dans les investissements publics, la duplication du modèle Xansa en Europe qui devrait prendre du temps, des filiales étrangères (Espagne et Scandinavie) en dessous de la taille critique, des positions fortes en Inde mais qui incitent les clients à demander des rabais élevés.
Les médecins sont peu formés aux effets des champs électromagnétiques
Présentée le mercredi 20 octobre à l'occasion de la présentation du livre Champs électromagnétiques, environnement et santé, cette étude souligne le manque d'informations du milieu médicale. Cette méconnaissance se ressent dans certaines réponses des médecins. Outre le trio d'appareils connus pour émettre des champs électromagnétiques comme les téléphones portables (86%), les antennes relais de téléphonie mobile (90%) et les lignes électriques à haute tension (85%), les médecins généralistes ne sont pas en mesure d'identifier les dispositifs qui émettent le plus de champs électromagnétiques, à l'instar des portiques antivol (46%), les lignes TGV (38%), et des lampes basse consommation (30%). Et 41% d'entre eux pensent que le GPS émet des champs électromagnétiques.
Peu de questions de la part des patients
L'étude rapporte que les patients ne sont pas plus informés que les professionnels de santé. Ainsi, seuls 3% des médecins interrogés déclarent être régulièrement interrogés par leurs patients sur les risques sanitaires associés aux champs électromagnétiques, contre 28% qui sont "de temps en temps" sollicités, et 43% qui le sont "rarement". Les questions des patients portent le plus souvent sur les risques liés aux téléphones portables (79%), devant les antennes relais de téléphonie mobile (69%), les lignes électriques à haute tension (53%), les fours à micro-ondes (31%) et les réseaux WiFi (30%).
Des maux de tête comme 1er symptôme
Autre constat de l'étude, les patients ne sont pas nombreux à se plaindre de problèmes de santé liés aux champs électromagnétiques. A ce titre, 70% des médecins interrogés affirment n'avoir été confrontés à aucune plainte de personnes concernant une éventuelle hypersensibilité aux champs électromagnétiques, contre 28% qui estiment qu'entre 1 et 5 patients se sont plaints au cours des 12 derniers mois. Les patients présentant une hypersensibilité aux champs électromagnétiques ressentent avant tout des maux de tête (38% des médecins affirment qu'il s'agit du principal symptôme rapporté par les patients). Suivent les troubles du sommeil (19%), la fatigue (17%), et la nervosité (6%).
Crédit photo : Leah-Anne Thompson
L'UIT attend 2 milliards d'internautes fin 2010
Selon l'UIT, une agence onusienne basée à Genève, le cap des deux milliards d'internautes devrait être franchi d'ici la fin 2010. Ce chiffre prend en compte le nombre d'utilisateurs d'Internet depuis les ordinateurs à domicile et ceux qui se connectent via leur téléphone mobile. Le nombre d'internautes sur poste fixe est évalué à environ 1,6 milliard de personnes.
Selon l'UIT, sur les 226 millions de nouveaux internautes en 2010, 162 millions proviennent des pays en développement. "D'ici la fin 2010, 71% de la population des pays développés sera connectée à Internet, contre seulement 21% des pays en développement", souligne l'UIT dans un communiqué. "65% des personnes ont accès à Internet à domicile dans les pays développés, alors que ce n'est le cas que pour 13,5% de la population des pays en développement, où l'accès à Internet dans les écoles, en entreprise ou dans les lieux publics est critique".
L'écart est également très grand entre l'Europe et l'Afrique. Dans le vieux continent, 65% de la population est connectée à Internet, contre seulement 9,6% des Africains. A titre de comparaison, le téléphone mobile compte 5 milliards d'utilisateurs dans le monde, de même que le téléviseur, contre 2 milliards pour le PC.
Crédit photo : Naluwan (...)(20/10/2010 11:29:46)IPv4 : les dernières adresses allouées dans quelques mois
LMI
Par Jean Elyan, avec IDG NS
Les acteurs de l'Internet sont appelés à prendre des mesures radicales pour adopter l'IPv6 et éviter le chaos du net. En effet, l'organisme chargé de l'attribution des adresses Internet annonce qu'il allouera les derniers blocs d'adresses IPv4 aux registrars régionaux en début d'année prochaine. Après la récente affectation de numéros IPv4 à l'APNIC (Asia Pacific Network Information Center), le Registre Internet Régional (RIR) pour la région Asie-Pacifique, la NRO (Number Resources Organization) qui regroupe les cinq registres régionaux (AfriNIC, pour l'Afrique; APNIC, pour la région Asie-Pacifique; ARIN, pour l'Amérique du Nord et de nombreux pays des Caraïbes; LACNIC, siégeant en Amérique latine et dans certains pays des Caraïbes et RIPE, pour l'Europe, le Moyen-Orient et certaines parties de l'Asie centrale), a déclaré que la réserve mondiale d'adresses qu'il gère se limite actuellement à 12 blocs. Chaque bloc représentant 16 millions d'adresses, il lui reste donc 1/256ème des quelque 4 milliards d'adresses IPv4 disponibles. «C'est une étape importante dans la vie de l'Internet. Elle signifie que l'attribution des derniers blocs d'adresses IPv4 pour les RIR est imminente, » a déclaré Axel Pawlik, président du NRO, dans un communiqué. «Il est essentiel que tous les acteurs de l'Internet prennent maintenant des mesures radicales pour assurer l'adoption rapide de l'IPv6. »
Une explosion du nombre de terminaux
Les adresses IP sont au coeur de la communication sur Internet. Chaque smartphone, ordinateur, serveur et routeur connecté au world wide web a besoin de sa propre adresse, et le trafic acheminé à travers le réseau mondial ne peut se faire que via ces adresses. Définies au début des années 80, à l'époque où l'Internet se limitait en grande partie aux universités et aux laboratoires de recherche, les adresses IPv4 en 32 bits semblaient suffisantes. C'est dans les années 90, 10 ans plus tard, que l'on a commencé à se préoccuper du jour où le stock d'adresses IPv4 serait épuisé. Ces inquiétudes se sont confirmées dans le milieu des années 90, au moment où les entreprises et les utilisateurs particuliers ont commencé à avoir accès à Internet. À la même époque, en 1995, l'Internet Engineering Task Force publiait les spécifications d'une nouvelle version du protocole Internet, l'IPv6, laquelle permettait de passer d'un adressage 32 bits à un adressage 128 bits. Le nouveau protocole apportait une augmentation massive du nombre d'adresses disponibles, mais l'incompatibilité entre les deux systèmes a ralenti son adoption. Les technologies de type NAT (network address translation), qui permettent à plusieurs périphériques de partager la même adresse IPv4, ont retardé l'épuisement inévitable des adresses IPv4, mais maintenant, autant dire que ce moment est proche.
Une pénurie attendue courant 2011
« Les cinq derniers blocs seront répartis équitablement entre tous les registres, ce qui signifie qu'il reste seulement sept blocs disponibles dans le cadre du système de distribution normale, » a déclaré le représentant de la NRO, l'organisme chargé de l'attribution des blocs aux cinq registres Internet régionaux, lesquels ont pour rôle de les transmettre à leur tour aux entreprises et organisations de leurs régions respectives. « Au rythme de livraison actuel, nous serons arrivés à épuisement début 2011, » a-t-il ajouté. Les adresses seront un temps détenues par les registres régionaux avant d'être réparties dans leur espace géographique, de sorte que la fin effective de délivrance des adresses IPv4 à l'utilisateur final ne se manifestera pas avant quelques mois, courant 2011.
La livraison du dernier bloc d'adresse IPv4 par la NRO ne devrait pas modifier grand-chose pour les utilisateurs finaux. Le passage à l'IPv6 est déjà en cours et une grande partie de l'infrastructure centrale de l'Internet travaille déjà sous le nouveau protocole. « Bien que de vastes portions du réseau ne sont pas encore converties, nous ne pensons pas qu'il y aura une ruée de dernière minute pour les adresses IPv4. Cela indique qu'il existe une forte dynamique pour l'adoption de l'IPv6, » a déclaré le représentant de la NRO.
Illustration : Cisco
| < Les 10 documents précédents | Les 10 documents suivants > |