Flux RSS

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

108538 documents trouvés, affichage des résultats 22511 à 22520.

< Les 10 documents précédentsLes 10 documents suivants >


(06/11/2006 17:23:51)

De nouvelles destructions d'emplois en informatique par l'offshore

Les 500 premières entreprises européennes vont faire face dans la décennie qui vient à une perte d'emplois locaux estimée à 1,3 millions de postes sur la chaîne administrative de l'entreprise. Cette thèse est celle du groupe Hackett (études de benchmarking et d'accompagnement des entreprises) qui vient de rendre les conclusions d'une étude, à partir de 2100 grandes entreprises internationales. Après les métiers informatique, ceux du back-office délocalisés Michael Janssen, PDG de Hackett, indique : « de nos jours les entreprises peuvent faire appel aux ressources dites d'offshore, pour tirer partie des zones de travail à coût réduit, tout en maintenant et en développant les compétences de leur personnel. Les gains liés à ces économies, évalués par nos analystes à 96 millions d'Euros par an et par entreprise présente dans le panel des 500 sociétés européennes étudiées, sont trop énormes pour être ignorés. » L'étude indique que l'informatique constituait pendant longtemps la fonction la plus prompte à basculer en dehors des frontières de l'entreprise. Or aujourd'hui, c'est aux fonctions dites de back office (services informatiques, comptabilité, ressources humaines, fonction achat) d'être touchées à leur tour par la tendance. Mais quelle valeur accorder au signal d'alarme tiré par Hackett ? En France, le Sénat va dans un sens similaire : en juin 2005, une étude de Jean Arthuis, président de la commission des finances du Sénat, complétée par l'analyse du cabinet Karlyse, prévoyait pour 2006-2010 la délocalisation de 202 000 emplois de services (dont près de 40 000 dans l'informatique, environ 12 000 dans le domaine des télécommunications et 90 000 dans le secteur « services aux entreprises »). Or ce chiffre de 202 000 représente 22 % de la création nette d'emplois salariés au cours de la période 1999-2003. Même si les analystes s'accordent sur le fait qu'il est difficile d'envisager des prospectives dans ce domaine, une étude d'IDC confirme également la tendance et estime à 20% environ la croissance de l'offshore chaque année (janvier 2006). Le Syntec Informatique minimise en revanche le risque de généralisation de l'offshore : certes, cette pratique paraît inéluctable, mais elle serait structurellement limitée, puisque sa part dans le CA du secteur pourrait être comprise entre 4% et 6% à l'horizon 2009 et que le plafond théorique des prestations « offshorisables » serait inférieur à 15 % du CA des services informatiques. (...)

(06/11/2006 17:25:10)

Deux salons pour l'emploi informatique à Marseille et à Rennes

Est-il encore temps de trouver un emploi dans l'informatique avant fin 2006 ? Oui, puisque deux organisateurs de salons, Kavesta et lesjeudis, donnent en région l'occasion d'une rencontre entre candidats et entreprises qui recrutent. Pour Kavesta, la manifestation se déroulera le 8 novembre à Marseille (Parc Chanot, palais des congrès). Les profils les plus recherchés sont essentiellement destinés aux secteurs des études et développement ; banque/finance/assurance ; exploitation et production ; conseil ; réseau et sécurité ; industrie. Quant à la rencontre organisée par lesjeudis, elle aura lieu le lendemain 9 novembre à Rennes (Halle Martenot). Outre des recruteurs, les candidats pourront également découvrir les formations continues et diplômantes (masters, VAE) dispensées dans la région. (...)

(06/11/2006 17:25:44)

Le fondateur de Peoplesoft lance Workday, un PGI en ligne

Presque deux ans après avoir subi le rachat de Peoplesoft, qu'il avait fondé en 1987, par Oracle, Dave Duffield revient sur le devant de la scène en présentant officiellement son nouveau bébé : le PGI Workday. A la manière de ce qu'il avait fait avec Peoplesoft, Dave Duffield entend séduire les entreprises avec un produit façonné ex nihilo, sans rachat ni partenariat. Workday tentera de se démarquer des deux Goliath du progiciel de gestion intégré que sont SAP et Oracle en s'appuyant exclusivement sur une offre hébergée. Fini, donc, les briques installées sur les postes des entreprises et place à l'utilisation à la demande et en ligne à la manière de Salesforce. Sur son site, Workday affiche ainsi la couleur : "les applications pour entreprise n'ont pas été conçues pour l'environnement dynamique d'aujourd'hui". Comprendre : Oracle et SAP reposent sur des technologies datées. A la place, le dernier né de Dave Duffield utilise des technologies et concepts en vogue : services Web, XML, SOA. Au final, quatre entités devraient voir le jour. La première d'entre elles, théoriquement disponible dans les prochains jours, concernera les ressources humaines. Elle sera suivie, en 2007, par les briques de gestion financière (comptabilité, dépenses, budget, etc.), gestion des ressources puis des revenus (ventes, factures, comptes clients, etc.) Dave Duffield ne sera pas seul dans cette aventure puisque l'entoure la fine fleur de l'équipe qui dirigeait Peoplesoft avant l'offensive d'Oracle. Ameel Bhusri, le cofondateur de Workday, s'occupait ainsi de la stratégie de l'éditeur entre 1993 et 2004 ; Ken Morris, CTO de Workday, avait cofondé Peoplesoft avec Dave Duffield ; Mike Duffield, vice-président ventes, était déjà en charge des ventes chez Peoplosoft ; et Stan Swete, vice-président produits et technologie, dirigeait le développement des applications financières et GRC. (...)

(06/11/2006 17:26:15)

Création de MIRT pour lutter contre les malwares

Dirigeant de Computer Cops (renommé CastleCops en 2005), Paul Laudanski vient de lancer MIRT (Malware Incident Reporting and Termination), un nouveau projet pour lutter contre les malware. MIRT suit la même méthode que pour le PIRT (Phishing Incident Reporting and Termination) créé en mars dernier par Sunbelt Software, spécialiste de la sécurité informatique et CastleCops, afin de lutter contre le phishing. Laudanski invite toutes personnes atteintes par un de ces fléaux que sont les programmes malveillants ou malware d'envoyer et de soumettre leurs échantillons à une base de données "de fichiers inconnus". Ces fichiers seront par la suite analysés et subiront une étude ainsi qu'un désassemblage par l'équipe de bénévoles et de volontaires du MIRT. Le MIRT publiera ensuite des rapports sur les logiciels malveillants étudiés et avertira de ses découvertes les autorités et les sociétés de sécurité compétentes. A noter que sur les 80 000 fichiers reçus au PIRT, c'est 300 courriels de phishing très dangereux qui ont pu être ainsi signalés au FBI. (...)

(06/11/2006 17:27:03)

Microsoft sortira une version de DirectX 10 compatible XP

En attendant l'arrivée d'ici quelques jours des premières cartes graphiques optimisées pour DirectX 10 et Vista, Microsoft devrait mettre à disposition une version compatible DirectX 10 pour Windows XP. Rappelons que DirectX est une suite d'API (Application Programming Interface) ou plutôt de fonctions pré-programmées multimédia qui permet d'exploiter les capacités matérielles d'un PC ou d'une console de jeu Microsoft. Apparue pour la première fois en 1995 sous le nom de "The Game SDK", la bibliothèque s'adresse aussi bien aux traitements audio et vidéo (carte vidéo, carte son, etc.) qu'aux périphériques d'entrée/sortie (joystick, carte réseau, souris, etc.). Les programmes ludiques ne sont donc pas les seuls consommateurs des « directives » DirectX. Or en juin dernier, Microsoft laissait sous-entendre que seul son système d'exploitation Vista intégrerait la version 10 de DirectX. Laissant par la même occasion les utilisateurs de Windows XP à l'écart des nouvelles fonctionnalités apportées par cette prochaine version 10 ou les obligeant à migrer vers Vista. Mais encore une fois, sous la pression de nombreux programmeurs ainsi que de l'absence quantitative de nouvelles cartes/puces graphiques susceptibles de faire tourner DirectX 10 dès la sortie de Vista, l'éditeur de Redmond devrait proposer une version DirectX 9.0 L pour XP, apte à faire fonctionner le matériel et les jeux nécessitant DirectX 10. (...)

(06/11/2006 17:24:44)

Le Macarena teste la résistance des machines sous Mac OS X

Symantec vient de mettre le doigt sur un virus ciblant Mac OS X. Baptisé Macarena -528 octets-, ce malware n'est pas véritablement dangereux en soi, mais il teste la vulnérabilité des unités sous Mac OS X et infecte tout de même les fichiers qui se trouvent dans le répertoire où il s'installe. Le plus inquiétant concernent les informations sur les failles du système qu'il recueille et transmet à ses auteurs à des fins bien plus dangereuses pour l'avenir. En outre, il semble qu'il puisse s'attaquer également à des systèmes d'exploitation dérivés d'Unix, comme Linux ou BSD. (...)

(06/11/2006 17:27:25)

Pour Red Hat, l'accord entre Novell et Microsoft est impensable

Red Hat, encore ébranlé par l'initiative d'Oracle clonant le support sur son OS Linux, estime que l'accord passé en Microsoft et Novell est "impensable" dans un contexte Open Source. Mais symbolise toutefois une victoire pour tous les éditeurs Linux. Vendredi 3 novembre, Novell et Microsoft ont signé un accord d'interopérabilité portant sur Suse et Windows. Un des termes de l'accord porte notamment sur un engagement de Microsoft à ne pas exercer "ses droits" sur toute technologie incorporée dans Suse Linux. L'éditeur, dans un article publié (sous forme de FAQ) sur son site, explique que "seuls les standards ouverts permettent une interopérabilité que tout le monde peut implémenter. C'est la vraie solution. Cela n'implique pas de signer un partenariat". A la question, seriez-vous prêt à signer un accord similaire avec Microsoft, Red Hat réplique et insiste sur le fait qu'"une taxe sur l'innovation est impensable. Les logiciels libres et Open Source fournissent l'environnement nécessaire pour une vraie innovation". L'indemnisation, désormais incluse dans Open Source Assurance Red Hat a toutefois glissé très discrètement dans son article que son programme de protection légale (Open Source Assurance) inclurait désormais l'indemnisation contre toute tentative de violation de la propriété intellectuelle. A l'origine, Open Source Assurance garantissait ses abonnés de la pérennité des systèmes Red Hat (Red Hat enterprise Linux et Jboss Enterprise Middleware) soit en remplaçant le code posant un problème de violation de copyright, soit en le modifiant pour qu'il devienne exploitable légalement, soit en obtenant les droits nécessaires pour son utilisation. (...)

(06/11/2006 17:23:24)

Le W3C veut réinventer le HTML

Coup de canon dans la sphère HTML. Tim Berners-Lee, le patron di W3C, consortium en charge de la promotion et du développement des standards du Web, souhaite, dans un très elliptique billet baptisé "re-inventing HTML" (réinventer le HTML), restructurer en profondeur le groupe de travail HTML, dont les membres s'opposent depuis des années au sujet de l'évolution des spécifications (et notamment du xHTML 2.0). "Il est nécessaire de reprendre de façon incrémentale les évolutions du HTML, explique en substance Tim Berners-Lee. L'idée est de recomposer complètement un nouveau groupe qui travaillera aux améliorations incrémentales d'HTML, et en parallèle à xHTML 2.0, avec un chef de projet et des responsables distincts". Soit dissocier les activités (probablement en trois groupes) des "opposants" respectifs en leur donnant la possibilité de travailler de façon autonome. "Depuis un certain temps, deux camps indiquent qu'ils ne partagent pas les mêmes intérêts, ou pas exactement, du moins, commente Ian Jacobs, directeur communication du W3C. Plusieurs ont invoqué une "évolution vs revolution" pour décrire les objectifs différents". L'"évolution", c'est le camp des éditeurs de navigateurs, dont certains sont allés créer un groupe dissident concurrent du W3C, le WHAT WG (voir encadré). Ils militent pour un développement itératif du langage HTML et le respect de la compatibilité ascendante. Par opposition, la "révolution" est symbolisée par le camp des défenseurs du xHTML 2.0 car l'utilisation du langage nécessite de revisiter complètement le langage, s'ouvrant ainsi aux risques d'incompatibilité. "Pour certains, il est plus important de ternir compte de l'existant, avec l'ajout possible de certaines améliorations, plutôt que de sauter le pas en utilisant des nouveaux formats xHTML", résume Ian Jacobs. Pour Daniel Glazman, dirigeant de Disruptive Innovations, ancien du groupe de travail HTML et actuel membre du CSS WG, la cause est entendue: xHTML 2.0 est une norme bancale qui reste incompatible avec l'existant. "xHTML 2.0 est une spécification qui ne prend pas en compte la compatibilité ascendante." Pour résumer, une norme qui ne reprend pas ou prou les travaux d'HTML 4 et qui nécessite ainsi une réécriture complète des sites. Les éditeurs n'auraient de fait pas implémenter xHTML 2.0 dans leurs navigateurs, freinant ainsi l'adoption du langage par les développeurs. "La tentative de faire basculer tout le monde vers XML [...] n'a pas fonctionné, écrit Tim Berners-Lee. La plupart des développeurs n'ont pas suivi, principalement parce que les navigateurs ne faisaient pas la différence. Et d'ajouter: quelques communautés l'ont supporté et goûté ainsi aux joies des documents bien formés, mais ce n'est pas la majorité." Aujourd'hui, l'idée a fait son chemin. "Il y a bien des utilisateurs et un marché pour xHTML 2", confirme Ian Jacobs. Et un groupe de travail devrait y être dédié. Mais il reste que les travaux sur le langage se sont finalement pas exploitables, dans l'immédiat. "xHTML 2 n'est pas encore un standard", nuance-t-il. Une restructuration encore soumise à l'approbation des membres Pour autant, les dés ne sont pas jetés. Les axes de travail comme les étapes de cette restructuration sont encore floues- on parle notamment de prendre en compte les travaux sur WebForms du WHAT WG. "Si la restructuration proposée a pour but de permettre aux deux camps de travailler au sein du W3C en groupes de travail différents [...], la mission [...] sera celle d'enrichir xHTML 1.x [et peut-être aussi HTML -les spécifications d'HTML ont été figées en 1998 par le W3C pour les maintenir uniquement en mode errata, limité à la seule correction de bogues, ndlr]", déclare vaguement Ian Jacobs. Et pour cause. Pour l'heure, "il ne s'agit que d'un projet de groupe de travail qui, comme le formalise le W3C, doit être soumis au vote des membres du consortium, nuance Daniel Glazman. La présentation devrait être soumise aux membres fin novembre au Japon (on parle du 28), et devrait ainsi statuer sur le futur d'HTML". Et d'ajouter : "Reste à savoir comment vont réagir des gens comme IBM, qui ont investi dans xHTML 2.0. [Big Blue a reposé nombre de ses applications sur Xforms, ndlr]. Mais si la formation n'aboutissait pas, on assisterait probablement à une scission entre les éditeurs de navigateurs et le W3C; ce qui poserait un véritable problème de légitimité au consortium". En savoir plus Le billet de Tim Berners-Lee Le billet de Daniel Glazman Le site du W3C (...)

(06/11/2006 09:51:05)

La ToIP jugule l'hémorragie du fixe

L'Arcep (Autorité de régulation des communications électroniques et des postes) publie son observatoire du marché des services de communications électroniques en France au 2ème trimestre 2006. Les trois principaux segments de marché, à savoir la téléphonie fixe, mobile et internet, affichent dans leur ensemble une progression de 2,3% par rapport au deuxième trimestre 2005, pour atteindre 7,9 milliards d'euros. La baisse du fixe jugulée par la ToIP Alors que le fixe enregistrait en moyenne une baisse de 4% par an, l'hémorragie semble aujourd'hui jugulée... grâce à la ToIP. En effet, le trafic RTC continue de dégringoler de 10,2% mais le trafic IP compense cette lourde chute. La voix sur IP représente maintenant 17% des volumes de téléphonie fixe. Alors que le nombre d'abonnements RTC chutait de 1 million en un an, le nombre d'abonnements ToIP progressait lui de 3 millions. Il atteint désormais 13% des abonnements fixes. L'Internet haut-débit en forme Belle santé aussi du dégroupage qui totalise 3,4 millions de lignes, dont 1,2 million en dégroupage total. La croissance du dégroupage pèse sur la présélection, moins intéressante. Elle baisse de 2,1% en un an. L'ADSL a engrangé plus de 3 millions d'abonnements en un an, portant le parc à 10,5 millions. Le nombre total d'abonnements à l'internet haut débit dépasse aujourd'hui les 11,1 millions de connexions. Le bas débit décline, rien d'étonnant ! Au total, les revenus de l'internet se montent à 917 millions d'euros au 2ème trimestre. Croissance soutenue du trafic mobile Question mobile, nous sommes 49 millions à posséder un terminal (+8,1% en un an). Et nous consommons toujours plus (+15,5% en volume). L'Arcep souligne que ces fortes croissances sont à mettre en partie au crédit des MVNO (opérateurs de réseaux virtuels) d'une part et des forfaits illimités lancés par les opérateurs, d'autre part. Par contre, la croissance des revenus mobiles ralentit (+4,7% contre +6,1% en 2005). La facture mensuelle par client baisse (-3,2% à 28,3 euros). Les nouveaux clients ne sont donc pas de gros consommateurs. Les opérateurs s'arrachent les cheveux pour faire augmenter l'ARPU (revenu moyen par usager). Morosité des renseignements téléphoniques Pour finir, l'Arcep relève une baisse sensible du volume d'activité des services de renseignements. La lutte active et désordonnée que se livrent les successeurs du 12 aura eu un impact négatif. Les revenus trimestriels sont en baisse de 21% (37 millions d'euros) et le nombre d'appels chute de 22% à 41 millions d'appels. Les acteurs sont nombreux, le gâteau se réduit. Free a été forcé de jeter l'éponge, il y aura d'autres morts ! (...)

< Les 10 documents précédentsLes 10 documents suivants >