Flux RSS
108538 documents trouvés, affichage des résultats 5521 à 5530.
| < Les 10 documents précédents | Les 10 documents suivants > |
(28/12/2010 16:38:20)
Services IT offshore : Gartner évalue trente destinations
Quel pays choisir pour un projet d'externalisation ? Gartner vient de mettre à jour son Top 30 répertoriant trente destinations possibles pour les prestations IT en offshore en 2011. Le cabinet d'études remarque que de nombreuses entreprises qui cherchent à externaliser des services informatiques dans des régions à bas coût sont embarrassées lorsqu'il s'agit de déterminer quels pays conviendraient le mieux à leurs besoins. Son Top 30 s'appuie donc sur dix critères d'évaluation, chacun se voyant attribuer une notation sur cinq niveaux (excellent, très bon, bon, correct, faible) : la langue, le soutien gouvernemental, le vivier de ressources, l'infrastructure, le système éducatif, le coût, l'environnement politique et économique, les compatibilités culturelles, la maturité globale et juridique, ainsi que la sécurité relative à la propriété intellectuelle et aux données personnelles.
Cette année, ce classement ne comprend que des pays émergents, souligne Ian Marriott, vice-président chez Gartner. Le cabinet a choisi de se focaliser sur des zones en voie de maturité, qui se développent tant localement qu'à l'international. Cinq pays ont ainsi fait leur première entrée dans cette liste : le Bangladesh, la Bulgarie, la Colombie, l'Ile Maurice et le Pérou. Parallèlement, trois autres y sont revenus après en être sortis, le Panama, le Sri Lanka et la Turquie.
En revanche, le cabinet a ôté cette année de sa liste sept pays économiquement développés, l'Australie, le Canada, l'Irlande, Israël, la Nouvelle Zélande, Singapour et l'Espagne. Les analystes signalent néanmoins l'intérêt que ces localisations plus proches peuvent représenter dans certains cas. Autre cas particulier, l'Uruguay, qui reste intéressant mais ne figure plus dans le classement, d'autres pays ayant réalisé de plus remarquables progrès sur « ce marché dynamique. »
Coûts attractifs : la palme à l'Indonésie
Au total, Gartner a retenu neuf pays sur la zone Asie/Pacifique dont le chef de file indiscuté reste l'Inde, doté de ressources et de compétences qui lui donne un avantage sur les autres pays de la région. En termes de potentiel, son principal challenger reste bien évidemment la Chine. Ces deux poids lourds sont fortement soutenus par les initiatives de leur gouvernement respectif. C'est aussi le cas de la Malaisie, alors que l'Indonésie est moins aidée. Outre les pays déjà cités, les autres représentants asiatiques du Top 30 regroupent le Bangladesh, le Sri Lanka, la Thaïlande, les Philippines et le Vietnam.
Côté infrastructure, les mieux placés sont la Chine et la Malaisie, et le moins bien noté, le Bangladesh. Sur le critère du coût, le Vietnam descend d'un cran, de l'évaluation « excellent » à « très bon », alors que l'Indonésie a grimpé à « excellent », meilleur score pour ce Top 30 de tous les pays analysés. L'un des points faibles de la région reste l'environnement économique et politique. La maturité globale et juridique laisse aussi à désirer. Dans ce domaine, seules l'Inde et la Malaisie reçoivent l'évaluation « bon ». Autre point particulièrement faible de la région Asie/Pacifique : la sécurité des données et de la propriété intellectuelle. Seule l'Inde récupère un « bon » sur ce critère, tandis que six pays héritent d'un « faible ».
L'Amérique latine gagne en soutien gouvernemental
Sur le continent américain, le cabinet a listé huit pays : l'Argentine, le Brésil, le Chili, la Colombie, le Costa Rica, le Mexique, Panama et le Pérou. Toutes destinations susceptibles de présenter des propositions intéressantes au plus gros consommateur de services offshore, les Etats-Unis.
Illustration : société Vindhya E-Infomedia, située à Bangalore (crédit photo : IDGNS)[[page]]Précédemment, les initiatives de soutien de la part des gouvernements locaux avaient pu laisser à désirer. Désormais, pointe Gartner, des pays comme le Mexique et le Chili disposent sur ce critère de l'évaluation « très bon ». Même note pour le Mexique sur le vivier de ressources et le coût. La région a également avancé sur le plan de l'infrastructure, les mieux notés sur ce point étant le Brésil et le Chili et les moins bien lotis étant l'Argentine et la Colombie. Le Brésil, en revanche, est le mieux noté (« excellent ») sur le plan de l'environnement politique et économique.
Toutefois, l'ensemble de la région a encore des progrès à faire dans le domaine de la sécurité des données et de la propriété intellectuelle. Cela reste un de ses points faibles. Enfin, si le système éducatif est jugé « bon » au Chili, au Mexique et au Costa Rica, le Panama hérite de l'évaluation la plus basse.
Le vivier de ressources peut encore progresser en EMEA
Enfin, sur la zone EMEA (Europe, Moyen-Orient, Afrique), le Top 30 inclut la Bulgarie, la République tchèque, la Hongrie, la Pologne, la Roumanie, la Russie, la Slovaquie, l'Ukraine, la Turquie, le Maroc, l'Egypte, l'Afrique du Sud et l'Ile Maurice. Sur le plan du soutien gouvernemental, l'Egypte est la seule à tirer vraiment son épingle du jeu (« très bon »). Cela reflète les efforts qui restent à accomplir pour que les modèles de fourniture de services se hissent à l'échelle internationale. Sur le plan du vivier de ressources, aucun pays de cette zone ne dépasse la note medium (« bon »). Sur le critère système éducatif, la Russie est passé de « très bon » à « bon », la Hongrie et la Roumanie, de « bon » à « correct ». Sur le critère du coût, l'Egypte, la Slovaquie et l'Ukraine ont reculé d'un cran, passant de « très bon » à « bon », tandis que la Russie a glissé de « bon » à « correct ».
Dans cet environnement de plus en plus dynamique et global, ce sont les fournisseurs multinationaux qui vont continuer à étendre leur présence sur différentes régions, en y apportant leur expertise et leur maturité, confirme Gartner. Face à eux les fournisseurs locaux vont faire de leur possible pour devenir des acteurs de l'offshore en se plaçant sur des niches ou en saisissant des opportunités. « Même si certains pays sont notés faiblement dans certaines catégories, les clients peuvent y trouver des fournisseurs - tant globaux que locaux - dont les aptitudes peuvent contrebalancer quelques-uns des risques qu'ils présentent », conclut Ian Marriott.
Illustration : société Vindhya E-Infomedia, située à Bangalore (crédit photo : IDGNS)
Alcatel-Lucent payera 137 millions de dollars d'amende pour corruption
Poursuivi par la Justice américaine et l'US Securities and Exchange Commission (SEC), l'équipementier franco-américain Alcatel-Lucent a conclu un règlement à l'amiable d'un montant de plus de 137 millions de dollars pour mettre fin à des poursuites engagées pour corruption. La compagnie avait en effet versé des pots-de-vin à plusieurs fonctionnaires afin de remporter des contrats de plusieurs dizaines de millions de dollars au Costa Rica, au Honduras, en Malaisie et à Taiwan. À la suite de ces versements, Alcatel-Lucent aurait dégagé 48,1 millions de dollars de bénéfices. Et près de la moitié de cette somme provenait de trois contrats au Costa Rica, d'un montant global de 300 millions de dollars. Des marchés remportés par Alcatel suite aux versements de plusieurs « enveloppes » à des fonctionnaires locaux selon le ministère de la Justice
Alcatel-Lucent et trois de ses filiales, Alcatel CIT, Alcatel Costa Rica et Alcatel Standard, ont ainsi accepté de payer 92 millions de dollars pour régler les affaires portées par le ministère de la Justice en vertu du Foreign Corrupt Practices Act (FCPA). La société a également admis avoir violé les dispositions sur le contrôle interne de ses livres de comptes - relatif au FCPA - pour recruter et payer des intermédiaires chargés de faciliter « ses affaires » en Angola, au Bangladesh, en Équateur, en Côte d'Ivoire, au Kenya, au Nicaragua, au Nigéria, au Mali et en Ouganda, précise le ministère de la Justice.
Des amendes déjà provisionnées par l'équipementier
Selon la SEC, Alcatel a effectué en toute connaissance de cause des paiements illicites à des représentants de gouvernements étrangers à travers ses filiales et falsifié ses livres de comptes et ses dossiers pour camoufler le paiement de ces pots-de-vin. Alcatel n'a toutefois ni reconnu ni nié les accusations de la SEC, mais a accepté de payer une pénalité 45 millions de dollars, de respecter les lois de la SEC qu'elle aurait enfreints, et de nommer un observateur indépendant pour trois ans. La proposition de règlement de la SEC est toutefois soumise à l'approbation du tribunal.
Ces amendes auront peu d'impact sur les résultats financiers d'Alcatel-Lucent cette année, puisqu'en février dernier l'équipementier avait indiqué avoir provisionné 93 millions d'euros dans le cadre de l'affaire. Ces activités inappropriées se sont déroulées avant la fusion d'Alcatel avec Lucent Technologies en 2006.
Ilustration : Campus d'Alcatel-Lucent aux Etats-Unis, près de Chicago crédit D.R.
(...)(28/12/2010 11:41:05)Bilan supercomputers 2010 : En route vers l'exaflopique
L'année 2010 a été marquée par l'arrivée d'un supercalculateur chinois, le Tianhe-1A, à la tête du fameux classement mondial Top500. Avec une puissance de calcul de 2,57 petaflops/s, ce dernier a en effet ravi la première place du podium au Cray Jaguar XT5-HE du Département américain de l'Énergie. Un autre système chinois, le Nebulae installé au National Supercomputing Centre de Shenzhen, occupe même la troisième place avec 1,27 petaflops/s. Un supercomputer japonais, Tsubame 2.0, tient désormais la quatrième place avec 1,19 petaflops/s. Avec le concours de Bull, le CEA a mis en service son Tera100, d'une puissance de 1,05 petaflops/s, qui se classe sixième pour l'instant.
Chasse gardée des américains, ce classement est aujourd'hui bouleversé par l'arrivée des très ambitieux programmes chinois. Si IBM n'a pas totalement renoncé à reprendre la main sur ce classement - le projet SuperMUC en Bavière annonce 3 pétaflops - il a également décidé de porter ses efforts sur le Green500. Une catégorie où le rapport puissance/consommation est pris en compte. Pour mesurer le rapport performance/consommation qui sera affiché dans le classement, les administrateurs des sites doivent exécuter un ensemble de tests conformes aux spécifications Energy Star. Et à ce petit jeu, les supercalculateurs les plus puissants ne font pas nécessairement le meilleur usage de l'énergie consommée.
Dernière tendance pour l'année 2010, le développement de supercalculateurs exaflopiques. Aujourd'hui, les systèmes les plus puissants atteignent le pétaflops, ce qui signifie qu'ils sont capables d'effectuer un million de milliards d'opérations en virgule flottante par seconde. Un système exaflopique quant à lui se mesure en exaflops, soit 1 milliard de milliards d'opérations en virgule flottante par seconde. Les États-Unis, la Chine, l'Europe et le Japon travaillent tous sur des plates-formes informatiques exascales même si les premiers systèmes ne sont pas attendus avant 2018.
Les articles publiés en 2010 sur le sujet :
- Le 14 décembre 2010 : IBM va construire un supercalculateur de 3 pétaflops en Bavière
- Le 10 décembre 2010 : BullWay 2013 : Sur le HPC, Bull devra compter avec la Chine
- Le 2 décembre 2010 : La technologie des puces CMOS photoniques rapproche IBM de l'exaflopique
- Le 30 novembre 2010 : Dezineforce : le supercalculateur mis en boite
- Le 26 novembre 2010 : Supercalculateurs exaflopiques : Pas avant 2018
- Le 25 novembre 2010 : Dassault Aviation se dote de supercalcultateurs Bull
- Le 22 novembre 2010: IBM en tête du Green500
- Le 16 novembre 2010 : Un supercalculateur chinois a pris la tête du Top500
- Le 28 octobre 2010 : Un supercalculateur chinois revendique une puissance de 2,5 pétaflops
(...)(28/12/2010 11:18:51)Près de 8 millons de Kindle vendus en 2010
"Nous sommes reconnaissants envers les millions d'acheteurs qui ont fait du Kindle le produit le plus vendu de l'histoire d'Amazon, surpassant les ventes du livre Harry Potter 7, a déclaré dans un communiqué Jeff Bezos, le patron et fondateur d'Amazon.com. Le site marchand, qui ne communique pas sur ses chiffres de ventes, s'est contenté d'indiquer que le Kindle a été le produit best-seller d'Amazon.com lors des fêtes de fin d'année.
La semaine dernière, l'agence Bloomberg a avancé le chiffre de 8 millions de Kindle vendus en 2010, qui surpasserait de 60% les prévisions des analystes. Les estimations les plus optimistes tablaient sur 5 millions d'exemplaires, soit le double de l'année dernière (2,4 millions).
Lancé fin 2007 aux Etats-Unis, le Kindle est depuis octobre 2009 disponible dans une centaine de pays dont la France. En plus de cette liseuse, Amazon a lancé plusieurs applications pour télécharger les livres de son catalogue sur d'autres supports que le Kindle, comme les PC, les Mac, et les smartphones (Android, iPhone, BlackBerry).
(...)(28/12/2010 11:15:16)KA-SAT, un satellite pour couvrir les zones blanches
"Ce lancement est un événement important pour notre pays à plusieurs titres : il va tout d'abord permettre de généraliser l'accès à Internet haut débit dans des zones d'Europe et du bassin méditerranéen qui en sont aujourd'hui dépourvues, il constitue ensuite une évolution technologique importante, et il conforte enfin la place occupée par la France dans l'industrie du satellite", a déclaré Eric Besson, ministre de l'Industrie, de l'Energie et de l'Economie numérique.
En France, KA-SAT va permettre de desservir jusqu'à 300.000 foyers en Internet haut débit, avec des débits montants compris entre 6 et 10 Mbits/s. L'ouverture des services commerciaux pour ces communications satellitaires est prévue pour la fin mai 2011. "Ce nouveau satellite va améliorer la qualité de service disponible pour les 1,5% de foyers qui ne bénéficient pas du haut débit par ADSL", précise un communiqué.
Construit pas Astrium pour Eutelsat, KA-SAT est le premier satellite européen de la génération des grands satellites multifaisceaux. Il peut exploiter en orbite 82 faisceaux associés à 10 stations au sol. Le dispositif permettra de réutiliser 20 fois une même bande de fréquences sur des régions distinctes, avec une capacité totale de 70 Gigabits par seconde.
Crédit photo : Astrium (...)(27/12/2010 17:26:06)Bilan Oracle-Sun 2010: Adoptions et abandons
En janvier 2010, Oracle obtient enfin l'autorisation de racheter Sun ainsi qu'il en avait manifesté l'intention en avril 2009. Entre ces deux dates, les autorités de régulation, tant aux Etats-Unis qu'en Europe, ont mené l'enquête afin de s'assurer que cette absorption ne risquait pas d'entraîner un déséquilibre concurrentiel, en particulier sur le marché des bases de données (avec le passage de MySQL chez Oracle). Au fil des mois, de nombreux défenseurs de l'Open Source s'étaient également inquiétés des incertitudes que ce rachat faisait peser, non seulement sur l'avenir de MySQL, mais aussi sur celui d'OpenSolaris et sur les évolutions du langage de programmation Java.
Désormais, la balle est dans le camp d'Oracle. Trêve de spéculations, la société de Larry Ellison va maintenant être jugée sur pièces. Son PDG fondateur a affirmé qu'il voulait être, comme IBM le fut dans les années soixante, un acteur global proposant une offre complète étroitement combinée, allant de l'infrastructure matérielle jusqu'aux applications. Il n'a jamais fait mystère qu'il convoitait Sun principalement pour Java et pour le système d'exploitation Solaris. En revanche, des questions se posent encore, notamment autour des processeurs Sparc. Dès février, Oracle annonce qu'il prépare une machine virtuelle Java unique. Il prévoit de fusionner son JRockit avec HotSpot, de Sun.
Jonathan Schwartz quitte le navire, d'autres suivent
Mais quelques jours à peine après le feu vert du rachat, le PDG de Sun, Jonathan Schwartz, annonce son départ de la société. Et, très vite, d'autres lui emboitent le pas. En mars, ce sera au tour de Simon Phipps, patron de l'Open Source de Sun, puis de Tim Bray, co-inventeur du langage XML, et de Martin Mickos, responsable de MySQL. En avril, James Gosling, le créateur de Java, quitte lui aussi l'entité Oracle/Sun.
Quelques jours plus tard, ce sont les utilisateurs d'OpenSolaris, version communautaire du système d'exploitation développé par Sun, qui se font entendre. Oracle a pris du retard pour livrer la dernière version de l'OS (prévue en mars) et il reste bien silencieux à ce sujet. Certains membres du conseil de gouvernance d'OpenSolaris (l'OGB) se disent prêts à dissocier leur code source de celui d'Oracle. Les relations vont progressivement se dégrader entre les deux parties. En juillet, l'OGB envoie un ultimatum à l'éditeur. En août, ce dernier laisse entendre qu'il privilégiera la version commerciale de l'OS, ce qui entraîne la dissolution de l'OGB. Mais la fin annoncée d'OpenSolaris a suscité des projets dérivés, Illumos par exemple.
Des feuilles de route sur 5 ans pour Sparc et Solaris
S'il contrarie les partisans d'OpenSolaris, à l'inverse, Oracle rassure les utilisateurs des serveurs à base de processeurs Sparc. Il esquisse pour ces derniers et pour le système d'exploitation Solaris une feuille de route sur cinq ans, annonçant un Solaris 11 Express pour les développeurs d'ici la fin de l'année et Solaris 11 pour 2011. [[page]]La version Solaris 10 9/10 sort cet été. John Fowler, patron de l'activité matérielle, précise par ailleurs que les lignes de serveurs x86 équipés de processeurs AMD seront arrêtées et les gammes standardisées sur les puces Intel.
Parallèlement, le groupe de Larry Ellison prépare sa grande conférence annuelle, OpenWorld, qui doit avoir lieu fin septembre à San Francisco. Il y annoncera des serveurs équipés du processeur Sparc T3 qui intègre jusqu'à 16 coeurs, une puce que l'on avait craint de voir abandonnée après le rachat de Sun.
Dans le cadre d'OpenWorld se tient aussi JavaOne, le rassemblement des développeurs Java. Cette année, Google, grand habitué du rendez-vous, n'y participera pas car Oracle vient de porter plainte contre lui. Il l'accuse d'avoir enfreint certains copyrights liés à Java lors du développement de son OS mobile Android.
Le support de MySQL démarre à 2 000 dollars
Sur JavaOne, l'acquéreur de Sun indique que les versions 7 et 8 de l'OpenJDK, le kit de développement Java, sont programmées pour 2011 et 2012. Il prévoit alors qu'elles continueront à se baser sur la version libre du langage de programmation, la communauté participant aux décisions sur les fonctionnalités à inclure à ces JDK 7 et 8. Deux mois et demi plus tard, les spécifications officielles de ces deux évolutions sont approuvées par le comité exécutif du JCP (Java Comity Process), malgré les oppositions de Google et d'Apache.
Début novembre, Oracle relève sensiblement le tarif du support de la base de données Open Source MySQL. L'abonnement à 599 dollars, que Sun pratiquait encore un an plus tôt, n'apparaît plus dans la tarification. Le support de l'éditeur démarre désormais à 2 000 dollars avec la Standard Edition. Pour débourser moins, il faudra se tourner vers des offres de services alternatives comme celles que proposent SkySQL ou Monty Program.
Mi- novembre, comme il l'avait annoncé, Oracle livre Solaris 11 Express, version du système d'exploitation destinée aux développeurs. Il présente également un aperçu de Solaris 11 qui sera livré en 2011.
En décembre, le repreneur de Sun annonce le Sparc Supercluster, une infrastructure serveur haute performance en cluster pour base de données. Cette configuration vient directement concurrencer les offres d'IBM et HP. Quelques jours plus tard, Oracle indique qu'il va porter sa distribution Enterprise Linux sur les environnements Sparc.
Un an après l'acquisition de Sun Microsystems, Oracle semble donc bien s'être engagé dans la direction annoncée par Larry Ellison (lorsqu'il se voyait en digne héritier de l'IBM de Thomas Watson) et vouloir devenir un constructeur à part entière. L'avenir nous dira s'il y parvient. Les ventes de serveurs des prochains mois fourniront un indicateur de la confiance que les entreprises accordent à la marque Oracle.
Hausse de la TVA : résilier sans pénalité son forfait mobile/Internet
La hausse de la TVA sur le volet télévision des abonnements triple play et mobiles 3G entrera en vigueur au 1er janvier prochain. Les opérateurs ont d'ores-et-déjà prévu de répercuter cette hausse sur les factures de leurs abonnés. Des augmentations comprises entre 1 et 3 euros sont attendues selon les opérateurs et les offres.
Or, le code de la consommation précise dans son article L121-84 que "tout projet de modification des conditions contractuelles de fourniture d'un service de communications électroniques est communiqué par le prestataire au consommateur au moins un mois avant son entrée en vigueur, assorti de l'information selon laquelle ce dernier peut, tant qu'il n'a pas expressément accepté les nouvelles conditions, résilier le contrat sans pénalité de résiliation et sans droit à dédommagement, jusque dans un délai de quatre mois après l'entrée en vigueur de la modification".
Résiliation pour un contrat mobile ou Internet
En clair, les abonnés d'un opérateur qui augmentera ses tarifs avec le passage de la TVA à 19,6% sur le volet télévision (contre 5,5% jusque-là) pourront faire valoir cette hausse pour changer de fournisseur d'accès à Internet ou d'opérateur mobile, et ce, gratuitement, même s'ils n'ont pas honoré toute la durée de l'engagement qui reste à couvrir.
A ce jour, seul Orange a clairement annoncé une hausse des factures. A compter du 1er février, les clients de l'opérateur historique devront payer 1 à 3 euros de plus par mois. Sont concernés les offres triple play regroupant Internet, TV et téléphonie fixe, ainsi que les forfaits mobiles permettant de regarder la télévision sur son téléphone portable. Cette modification du contrat, communiquée aux clients par courrier, donnera droit à une résiliation sans frais de l'abonnement Orange, tout en ayant la possibilité de conserver son téléphone.
(...)(27/12/2010 15:05:05)Cloud : La suite BPOS de Microsoft laisse filer des données
Mercredi dernier, Microsoft a fait savoir que des données contenues dans sa suite Business Productivity Online Suite (BPOS) avaient été téléchargées par des utilisateurs non autorisés. Cette affaire pourrait faire date, et marquer le premier grand événement relatif à la violation de données dans un cloud. Selon certains, à l'avenir, ces fuites accidentelles risquent fort de se multiplier. Jusqu'à devenir banales. Et d'espérer pour chacun de ne pas en être une victime.
On pourrait, par réflexe, blâmer d'office les pirates. Mais ce n'est pas ce qui s'est passé cette fois-ci. La fuite a résulté d'un « problème de configuration » non détaillé survenu dans les datacenters de Microsoft aux États-Unis, en Europe et en Asie. Le carnet d'adresses Offline de la suite BPOS, qui contient les informations de contact professionnel, a été rendu accessible à des utilisateurs non autorisés dans des «circonstances très particulières, » selon Clint Patterson, chargé par Microsoft de présenter des excuses au nom de l'entreprise. Le problème a été résolu deux heures après avoir été découvert, ce qui ne permet pas de dire pendant combien de temps l'accès à ces données était ouvert. Par chance pour Microsoft, l'entreprise, qui réalise le traçage des données, a pu contacter ceux qui avaient téléchargé ces éléments par erreur pour faire un peu de nettoyage.
Trois risques de fuite
À n'en pas douter, l'affaire aura un impact certain chez ceux qui envisageaient d'adopter le Cloud dans l'année à venir, en particulier ceux qui regardaient du côté d'Office 365, l'offre cloud majeure de Microsoft en liaison avec sa suite bureautique Office.
Globalement, trois évènements peuvent menacer les données de n'importe quel fournisseur Cloud : une mauvaise configuration ou des bugs dans le logiciel de service cloud ; le vol de données par des pirates, pour le plaisir ou pour le profit ; des employés négligents avec les données confidentielles. Ce troisième point n'est pas nouveau : les employés ayant accès aux données sensibles risquent toujours d'orienter accidentellement les datas vers des personnes non autorisées. C'est ce qui se passe dans les nombreux accidents de messagerie où une mauvaise pièce jointe est envoyée, ou quand des emails sont accidentellement transmis à d'autres destinataires.
Le cloud, une source de très grosses erreurs ?
La collaboration entre l'homme et l'ordinateur posera toujours quelques problèmes. À une différence près : le cloud computing offre la possibilité unique de faire de très grosses erreurs. Les nombreux services en ligne permettent de partager des données entre individus aussi facilement qu'avec la totalité de l'Internet. Le travail collaboratif est même une des raisons d'être des services cloud. On imagine donc facilement ce qui pourrait arriver : il est tard, un employé fatigué voudrait partager le document « Invitation à la fête de Noël » avec le monde entier, mais sélectionne accidentellement le document « Comptes trimestriels 2010 » de l'entreprise. Y a t-il des procédures pour éviter ce genre d'erreurs ? Est-ce vraiment la première fois que cela arrive ? Un client vous a déjà informé poliment d'une telle erreur ?
Les erreurs de configuration et les bugs ne sont pas des problèmes mineurs. En premier lieu, on peut espérer que les fournisseurs de services cloud effectuent des tests massifs avant de proposer leur produit. Ensuite, il est bien connu que les logiciels vendus par les éditeurs ne comportent jamais de bugs... Enfin, la menace liée au piratage représente sans doute la plus grande préoccupation. Les pirates sont parmi les individus les plus intelligents et les plus sournois de la planète. Rien ne les arrête. Même ceux qui n'ont pas ces qualités peuvent créer beaucoup de problèmes. Le fait d'avoir ses données sur ses propres serveurs, dans ses propres locaux, représentait une barrière physique contre le piratage. Un obstacle que certains hackers ont aussi surmonté. N'empêche que la conception de ces serveurs était en soi un élément de sécurité. Le cryptage n'est pas non plus la solution parfaite. Des données cryptées peuvent aussi être cassées. C'est le cas si le logiciel de cryptage présente lui-même des bogues.
Une éventualité très réaliste
Cela signifie que, si une entreprise met ses données dans un cloud, elle doit prendre en compte l'éventualité, très réaliste, que ces données puissent devenir publiques à un moment ou à un autre. La nature et l'importance de la fuite pourront varier. Mais, cela pourra arriver. C'est juste une question de date. Il serait aussi intéressant d'aller rendre visite à Microsoft, à Google, et à d'autres pour voir s'ils consomment ce qu'ils vendent : est-ce que Google fait confiance à sa plate-forme Docs pour ses données d'entreprise hypersensibles ? On se pose la question et on se dit probablement que non. Il faudrait vérifier, mais la firme de Mountain View ne joue pas vraiment la carte de la transparence.
Des lois existent contre le vol de données, obligeant les entreprises à mettre en place des systèmes de sécurité appropriés. Mais quelle valeur accorder à ces protections une fois que les données sont sorties du cloud ? Et si ces données volées sont transformées en fichier Torrent, comme cela semble être la mode en ce moment, il n'y a absolument aucune chance de faire un nettoyage discret en demandant à ceux qui ont reçu ces données par erreur de les détruire ou de les restituer...
(...)(27/12/2010 12:44:07)Moins d'informaticiens inscrits au chômage en novembre 2010
Sur un nombre d'inscrits à Pôle Emploi en hausse de 2% sur un an dans la catégorie A (personnes sans emploi*) et de 0,8% par rapport à octobre dernier, on note à l'inverse une légère baisse, dans le classement par métiers, pour les professions liés aux systèmes d'information et de télécommunication. Entre octobre 2010 et novembre, le nombre de demandeurs d'emploi inscrits pour ces métiers est passé de 27 100 à 26 500 personnes en France métropolitaine, dans la catégorie A. Il y a un an, fin novembre 2009, ce groupe comptait 28 500 personnes.
En ajoutant à ces demandeurs d'emploi les personnes inscrites dans les catégories B et C, c'est-à-dire celles ayant exercé une activité réduite sur la période, la Dares (**) a comptabilisé, en France métropolitaine, 32 900 demandeurs d'emploi en novembre 2010, contre 33 400 le mois précédent, sur les métiers liés aux systèmes d'information et de télécommunication. Fin novembre 2009, ce groupe comptait 33 900 personnes.
Il s'agit de données brutes, non corrigées des variations saisonnières et des jours ouvrables.
NB : Rappelons que la Dares a réorganisé sa classification métiers au début de cette année, faisant passer les professions de l'informatique dans la catégorie « métiers des systèmes d'information et de télécommunication » et reclassant au passage une partie des postes sur d'autres métiers. Ce nouveau décompte avait fait baisser le nombre d'inscrits assimilés jusqu'alors aux métiers de l'informatique
(*) 2 698 100 personnes inscrites à Pôle Emploi fin novembre 2010 en France métropolitaine dans la catégorie A qui recense les personnes sans emploi n'ayant exercé aucune activité dans le mois.
(**) La Dares (Direction de l'Animation de la Recherche, des Etudes et des Statistiques, Ministère du travail, de la solidarité et de la fonction publique) indique qu'au total, le nombre de demandeurs d'emploi inscrits à Pôle Emploi de catégories A, B (ayant eu une activité d'au plus 78 heures au cours du mois) et C (ayant eu une activité de plus de 78 heures dans le mois) s'établit à 4 019 000 fin novembre en France métropolitaine (4 272 200 en incluant les DOM).
Source : Séries mensuelles nationales brutes de la Dares.
| < Les 10 documents précédents | Les 10 documents suivants > |