Flux RSS
108538 documents trouvés, affichage des résultats 5621 à 5630.
| < Les 10 documents précédents | Les 10 documents suivants > |
(15/12/2010 11:57:05)
Symantec mettra à jour sa suite DLP en 2011
Symantec DLP v. 11 comprendra notamment une « machine à vecteur de support » pour l'apprentissage artificiel. La méthode, mise en oeuvre dans d'autres domaines industriels où l'on utilise l'analyse de contenu basée sur la connaissance, permet d'examiner les documents, de les classer et de les mémoriser, mais aussi de savoir où est conservée leur version électronique. Symantec dit avoir développé sa propre version pour réaliser les classifications DLP, notamment pour distinguer et protéger les données selon qu'elles sont identifiées comme confidentielles ou sensibles. « Il faut que le système d'administration soit capable de générer des mots-clés,» explique Rich Dandliker, directeur produits chez l'éditeur. Les outils de configuration de Symantec DLP v.11 permettent d'établir les profils des documents au fur et à mesure qu'ils sont ajoutés au système, de comprendre les similitudes entre les documents quand ils subissent des modifications, et d'établir des classifications de données en fonction de leur degré de confidentialité. La suite génère également des feedbacks sur ces choix. Autant d'éléments qui visent à simplifier son administration. La technologie permet enfin une détection DLP appropriée et est capable de bloquer des données même si un document a été légèrement modifié. Cela devrait aider à réduire les faux positifs.
Un système d'évaluation des risques
En plus des capacités d'apprentissage de la machine à vecteur de support, DLP v.11 comprendra un système d'évaluation des risques pour les données confidentielles de l'entreprise. « Il y a des «marqueurs» qui révèlent une concentration de données confidentielles et leur degré d'exposition, » explique Rich Dandliker. « Avec la v. 11, on pourra très rapidement voir à quel endroit il existe des risques potentiels, » dit-il. « Parfois, il suffira simplement d'appliquer certaines mesures correctives dans le contrôle d'accès pour diminuer ce risque. » La troisième nouvelle fonctionnalité de DLP v. 11 pourrait concerner la «restauration de données propriétaires» qui permet à l'équipe informatique d'alerter les propriétaires sur des risques potentiels concernant leurs données sensibles et de mieux les sécuriser. « Cette approche s'appuie sur ce que nous avons fait avec la version v.10.5 de Data Insight, » dit Rich Dandliker. « Parfois, il est difficile de savoir qui est le propriétaire des données, » ajoute-t-il.
DLP v.11 établira aussi un historique clair de ceux qui accèdent aux fichiers, assurant leur suivi, y compris pour savoir où ils sont stockés. L'idée est de s'assurer que la prévention de la fuite de données ne revient pas uniquement aux DSI et à leur outil DLP pour détecter et bloquer le transfert non autorisé d'informations sensibles, mais de faire en sorte que les gestionnaires eux-mêmes soient tenus informés de ce qui se passe et qu'ils prennent le cas échéant les mesures appropriées.
Symantec DLP v.11 est attendu pour le premier semestre 2011. Son prix de base a été fixé à 15.000 dollars.
(...)(15/12/2010 11:24:13)L'ExQI relève le défi de la qualité des données
Absence de définition
Assez curieusement, Jacky Akoka, professeur au CNAM où il préside le département informatique, a admis qu'il n'existait aucun consensus sur la définition même du sujet, à savoir la qualité des données. La liste des caractéristiques d'une donnée de qualité ou d'un processus générant des données de qualité n'est donc pas totalement fixée alors même que les premiers travaux de recherche datent des années 80. De la même façon, les méthodologies sont nombreuses et variées. Il existe cependant une liste d'items fréquents caractérisant des données de qualité : exactitude, cohérence, sécurité, fraicheur de l'information, complétude, concision, fiabilité, pertinence, etc. Un certain nombre de ces items sont plus particulièrement intéressants car on peut leur associer une métrique et donc s'en servir pour mesurer la qualité. Ainsi, la fraicheur peut être estimée en fonction de la date de production de l'information.
Une norme ISO de la qualité des données
Malgré ce caractère peu défini du travail exact sur la qualité des données, il existe une norme ISO en cours de mise au point sur le sujet. Peter Benson, directeur exécutif de l'Eccma (Electronic Commerce Code Management Association) et responsable du projet de norme ISO 8000 est venu la présenter lors du Data Excellence Paris 2010. ISO 8000 est basé sur la logique de l'ISO 9000.
« Le coût de développement d'une norme est de l'ordre de cinq millions de dollars et ISO 8000 a été sponsorisée par l'armée américaine qui perdait beaucoup trop d'argent à vérifier la qualité de ses données » a remarqué Peter Benson. Il a ajouté : « un de ses principes fondamentaux, qui va à l'encontre de la volonté de tous les éditeurs de logiciels, est de nettement séparer les données des programmes. » Un autre principe est de clairement séparer une information d'une donnée exploitable.
[[page]]
Plusieurs entreprises ont témoigné lors du Data Excellence Paris 2010. Les détails des projets ne sont pas publics tant, il est vrai, on touche là à des dimensions extrêmement sensibles.
La division Production Nucléaire d'EdF a ainsi mené le projet QUAIAC (Qualité des Informations, Applications, Compétences) sous la responsabilité d'Evelyne Rossin, chef de projets. La qualité des données ne se marchande pas dans un contexte où la sécurité est un impératif absolu. Or les différents sites utilisent des procédures qui ont dévié les unes des autres au fil des années ou des organisations locales. A cela s'ajoute une refonte en cours du coeur du SI, ce qui implique une impossibilité de définir la démarche de qualité des données par rapport à une architecture donnée, le modèle global des données ne devant pas bouger. La démarche a donc consisté avant tout à promouvoir un bon usage du SI en portant les efforts sur les données les plus sensibles sans se disperser inutilement sur des milliers d'autres aux impacts moindres. Suite à une question de la salle, Evelyne Rossin a bien volontiers admis que « les fichiers Excel parasites prennent parfois la place, localement, des applications normales, ce qui implique des trous dans les données étudiées et contrôlées. La démarche initiale a donc aussi consisté à éradiquer ces fichiers parasites et à promouvoir les applications peu connues ou peu aimées. »
La convergence pour la qualité globale
Chez Air Liquide, la problématique était liée à la taille et à la diversité du groupe dans le monde. Avant 2003, chaque entité du groupe possédait ses propres solutions IT, ses propres référentiels et ses propres processus. Valérie Dupré-Montaldo, conceptrice du référentiel et du catalogue européen, a admis : « nous subissions des problèmes dans les échanges informatiques entre entités, avec des coûts de non-convergence ». En 2010, 12 pays ont déployé le SI convergent baptisé Opera, avec des référentiels de données communs au niveau européen.
Ces référentiels se doivent cependant de vivre. Air Liquide a donc développé un outil spécifique de workflow pour assurer via Intranet la création, la modification ou la suppression d'éléments de ce réferentiel. De plus, pour s'assurer du bon usage des outils, des audits réguliers déterminent des indicateurs de qualité des données, la qualité des processus et la convergence des référentiels effectivement exploités. « Un référentiel ne doit surtout pas être vu comme un problème informatique mais bien comme un levier de performance métier » a insisté Valérie Dupré-Montaldo.
[[page]]
Chez Alcatel-Lucent, Laurence Orazi est en charge de la gouvernance des données d'entreprise. Depuis 2007 et la fusion effective entre Alcatel et Lucent, la problématique de la gestion des données, de leur convergence et de leur harmonisation, a en effet été récurrente. Dans un premier temps, l'optimisation de la qualité des données a été effectuée via un MDM domaine par domaine. « Mais malgré de lourds investissements, les problèmes persistaient » a déploré Laurence Orazi. Là encore, des problèmes sont survenus à cause de fichiers Excel parasites impliquant que les référenciels d'entreprise n'étaient pas complets. La solution finalement choisie a donc été de mettre en place une gouvernance des données pilotée par les règles métier. Alcatel-Lucent a mis en oeuvre un modèle d'intégration pour aller chercher les informations dans de multiples sources afin de piloter la mise à disposition de la bonne donnée au bon moment.
Pour Laurence Orazi, plusieurs bonnes pratiques sont nécessaires pour aboutir à un succès. Tout d'abord, il convient de commencer sur un périmètre restreint avant d'étendre progressivement. S'il faut faire équipe avec la DSI pour les aspects technologiques, ce sont bien les acteurs métier qui doivent être impliqués et comprendre les avantages de la démarches. Enfin, le recours à des experts externes permet de démarrer rapidement.
Une odeur de qualité des données
Chez Firmenich, une entreprise suisse spécialisée dans les fragrances et arômes présente dans 50 pays, la gouvernance des données a surtout concerné celles de la chaine logistique, de la prise de commande à la délivrance de la commande au client. Pour Thierry Délez, directeur MDM, « si, quand on met en place un MDM, il faut régulièrement nettoyer les données, c'est que le processus est en échec. » En effet, les processus métier doivent aboutir à la création et au stockage des seules données justes et pertinentes, notamment sans doublon.
Le pire qui puisse arriver pour une saine gouvernance des données, c'est que des « héros » sauvent régulièrement l'entreprise de la catastrophe. « En tel cas, les processus ne sont jamais révisés et ceux qui devraient utiliser les données passent leur temps à en restaurer la qualité, ce qui aboutit d'un côté à les démotiver, et de l'autre à les rendre responsables de problèmes contre lesquels ils se battent » condamne Thierry Délez. En particulier, la mauvaise intégration des données ne doit pas être traitée par la DSI, qui fournit un outil, mais par les managers métiers. Pour cette raison, la direction dont dépend Thierry Délez n'est pas rattachée à la DSI : sa fonction n'est pas technique et son travail ne doit pas être considéré comme un « bidule technique ».
Le MEHARI 2010 disponible sur le site du Clusif
La méthode Mehari sert à analyser les enjeux majeurs de la sécurité des SI, étudier les vulnérabilités de ceux-ci, réduire la gravité des risques encourus, piloter la sécurité de l'information, et valider la politique de sécurité de l'organisation. Elle est conforme aux exigences de la norme ISO/IEC 27005. La version précédente, de 2007, a été téléchargée plus de 20 000 fois dans 120 pays selon le CLUSIF.
La version 2010 se télécharge sur le site du CLUSIF.
Yahoo supprime 600 emplois dans le monde
Ce plan de restructuration salariale représente environ 4 % de l'effectif mondial de la société, explique la société. Un communiqué explique « les modifications de notre masse salariale annoncées aujourd'hui s'inscrivent dans notre stratégie en cours visant à optimiser la position de Yahoo en termes de croissance du chiffre d'affaire et d'augmentation des marges » et d'ajouter « qu'il embauchera de nouveau pour offrir des produits différenciés sur le marché ». La firme a déclaré que les salariés concernés toucheront des indemnités de départ et des services de reclassement.
Début 2008, Yahoo avait refusé la proposition de rachat de Microsoft, aboutissant au départ de son fondateur Jerry Yang. Cependant, les deux entreprises ont signé quelques mois plus tard un accord où l'éditeur de Redmond proposait au portail son moteur de recherche Bing et sa plateforme publicitaire adCenter. Cet accord n'a pas encore contribué à redynamiser la croissance de Yahoo.
Les salariés licenciés ont pu trouver un peu de réconfort sur Twitter, où ils reçoivent des messages de soutien. Ainsi, une brasserie de San Francisco offre une bière gratuite aux gens de Yahoo qui se présenteront avec leurs lettres de licenciement. Beaucoup d'entreprises s'intéressent à ces salariés et les encouragent à postuler chez elles.
Gartner estime à 9,2 milliards de dollars le marché du SaaS en 2010
Le marché du SaaS, en entreprises, serait en hausse de 15,7% en 2010, avec un chiffre d'affaires mondial de 9,2 milliards de dollars. En 2011, selon Gartner, ce marché devrait passer à 10,7 milliards de dollars, en progression de 16,2%. La gestion des contenus et le collaboratif arrivent en tête, avec un CA de 2,9 milliards de dollars en 2010, suivi du CRM avec 2,6 milliards de dollars. Ces croissances à deux chiffres s'expliquent, selon le cabinet d'études : «les préoccupations initiales concernant la sécurité, les temps de réponse et la disponibilité du service ont diminué pour de nombreuses entreprises», a déclaré Sharon Mertz, directeur de recherche chez Gartner. Selon elle, les usages et les écosystèmes revendeurs ont également évolué.
Gartner note une recomposition du paysage avec des progressions organiques ou des acquisitions, des offres plus étendues. « Au cours des 12 derniers mois à 18 mois, Gartner a observé des changements dans la façon dont le SaaS est vendu, consommé et perçu par les vendeurs et les acheteurs. » Selon le cabinet, de plus en plus de responsables en entreprises participent aux décisions relatives au Saas, la DSI est de plus en plus impliquée, le Saas de mieux en mieux intégré en aval.
Le Gartner relève également trois phénomènes additionnels :
- Le fait qu'un nombre croissant d'entreprises utilisent des applications SaaS de plusieurs fournisseurs, achetées et déployées sans la participation de la DSI, créant des problèmes de gestion;
- Les déploiements en SaaS sont de plus en plus larges, avec des offres apparaissant plus fréquemment, concernant des dizaines de milliers d'utilisateurs;
- Les médias sociaux sont de plus en plus intégrés dans les solutions SaaS.
Logiciels et services : la région PACA résiste à la crise
Un chiffre d'affaires en hausse dans la région
Cette résistance à la crise de 2009, le bassin d'emploi méditerranéen la doit notamment à l'augmentation du nombre d'établissements de sociétés du secteur logiciels et services sur son sol. Entre 2008 et 2009, il est passé de 1439 à 1524 points de présence. Ce qui traduit une augmentation de 7,9% en un an contre une hausse de 6,6% sur l'ensemble du territoire national. L'an dernier, les éditeurs et prestataires de services basés en PACA ont réalisé un chiffre d'affaires de 2,5 Md€, soit une hausse de 31,5% par rapport à 2008. Analysés département par département, l'étude de la CCIMP et de Medinsoft montre que les Bouches-du-Rhône représentent le plus gros pôle de fixation d'établissements en PACA avec 749 établissements en 2009. Viennent ensuite les Alpes-Maritimes puis le Var avec, respectivement, 502 et 164 points de présence.
Crédit photo : D.R.
Les smartphones prochaines plateformes des attaques DDoS
Cette enquête de l'Agence Européenne de la Sécurité des Réseaux et de l'Information considère ce risque comme important, même si actuellement il n'existe pas de telles attaques. Cela peut changer, car ces terminaux sont de plus en plus populaires, connectés et la complexité de ces plates-formes pourrait accroître les risques de vulnérabilité.
Les smartphones botnets pourraient ainsi être utilisés pour des attaques traditionnelles comme le spam, la fraude au clic et le DDoS, affirme le rapport. À partir de ces terminaux mobiles, de nouveaux scénarios d'attaques distribuées, comme le spam par SMS ou à la saturation des réseaux de téléphonie. De telles actions pourraient servir de support pour des agressions plus larges sur d'autres infrastructures.
"La couverture de téléphonie mobile est de plus en plus vitale, en particulier dans les cas d'appel d'urgence, cette extension donne aux smartphones une ouverture vers de plus grandes possibilités pour les attaques DDoS avec des conséquences potentiellement graves», selon le rapport. Ce dernier cite l'exemple d'un virus qui a touché en 2001 DoCoMo, le premier opérateur mobile japonais. Le « virus i-mode » s'intégrait dans l'interface du mobile et était capable d'envoyer des messages malveillants et de composer les numéros d'urgence de manière intempestive. « À l'époque, le nombre de terminaux mobiles vulnérables était réduit et l'impact n'était pas significatif, mais, aujourd'hui, une telle attaque aurait pu avoir des conséquences dramatiques sur les numéros d'urgence », précise l'étude.
Des risques classés en fonction des usagers
Le rapport distingue les faiblesses des smartphones et classe le niveau de risque en trois catégories d'usagers : consommateurs, salariés, et dirigeants. L'étude pondère les résultats sur les trois groupes d'utilisateur par le caractère involontaire de divulgation de données sensibles, car beaucoup ne connaissent pas les différentes fonctionnalités de certaines applications. Même si un utilisateur a accepté sciemment le téléchargement d'une application, il ignore peut-être que celle-ci collecte et publie des données à caractère personnel, comme les informations de localisation, très à la mode au sein des réseaux sociaux. Si la plupart des applications disposent de paramètres de confidentialité, nombreux sont les utilisateurs qui ne les modifient pas ou simplement en ignorent l'existence. Pourtant la «divulgation involontaire de données de localisation peut aider des criminels à suivre et tracer les utilisateurs pour par exemple planifier un vol de marchandises de grande valeur», conclut l'étude.
Les français se plaignent toujours de leur qualité de service
(Source EuroTMT) Au-delà de ces constatations générales, le mérite de l'enquête sur la diffusion des TIC, réalisée conjointement par l'Arcep, le CGIET (Conseil général de l'industrie, de l'énergie et des technologies) et le Credoc, est de donner un panorama très complet des équipements - que ce soit en ordinateurs ou en téléphones (fixes et mobiles) - et d'examiner les usages selon l'âge et la catégorie socioprofessionnelle des utilisateurs. Cette étude étant la huitième du genre, elle permet de noter les évolutions dans le temps. Le fait marquant de ce cru 2010 est l'explosion des réseaux sociaux. En 2009, 23 % des Français surfaient sur Facebook, YouTube et autre LinkedIn. Ils sont désormais 36 %. Cela représente 7 millions de plus en un an. « C'est un phénomène unique dans les TIC depuis le boom du téléphone mobile au début des années 2000 » souligne Denis Rapone, membre du collège de l'Arcep. L'évolution est surtout sensible chez les 12-24 ans qui sont plus de 75 % à se connecter sur ces sites communautaires. Mais, hormis les plus de 70 ans (chez lesquels le taux de fréquentation est de 1%), toutes les autres catégories d'âge sont aussi de plus en plus nombreuses à se rendre sur les réseaux sociaux.
Un usage toujours plus fréquent d'Internet
Cet engouement contribue en partie à la hausse du taux d'utilisation d'internet. Plus d'un Français sur deux utilise internet tous les jours (contre 1 sur 3, il y a cinq ans) et les personnes qui ont une connexion à leur domicile (soit 71 % de la population) passent désormais presque autant de temps sur la toile que devant leur télévision (respectivement 15 et 17 heures par semaine). La proportion étant même inversée chez les cadres (17 heures et 11 heures) et chez les 12-17 ans (16 heures et 14 heures). En termes d'équipement en ordinateurs, l'étude montre que les foyers où se trouvent des adolescents sont mieux équipés que les autres (même si le taux chez les personnes âgées est passé de 21 % à 28 % en un an), mais surtout que le multi-équipement (plusieurs ordinateurs) est de plus en plus fréquent (55 % de la population contre 43 % il y a un an).
Le marché de la téléphonie arrive à maturité
Concernant la téléphonie, la situation est plus stable : 70 % des Français possèdent au moins un téléphone fixe et un mobile. La proportion de personnes n'ayant qu'un mobile stagne à 12 % (après avoir atteint 16 % en 2005). Le remplacement du fixe par le mobile n'aura donc pas eu lieu. La faute aux tarifs des mobiles probablement. Ces chiffres mettent en avant le succès des box pour téléphoner (54 % des personnes contre 48 % en 2009). De son côté, le téléphone mobile est de plus en plus employé pour surfer sur Internet. Certes, ce n'est pas encore un usage généralisé puisque cela ne concerne que 15 % des possesseurs de téléphones mobiles, mais ils n'étaient que 7 %, il y a deux ans. En fait, pour beaucoup de Français, et surtout les jeunes, le mobile sert essentiellement à envoyer des SMS dont le succès, année après année, ne se dément pas : 57 SMS envoyés en moyenne par semaine en 2010, contre 30 en 2009 et 19 en 2008 !
Qualité de service toujours aux abonnés absents
Enfin, concernant la qualité de service, l'étude fait apparaître une insatisfaction importante tant pour les débits de l'Internet fixe que mobile : 44 % des Français estiment que leur connexion fixe n'est pas assez rapide contre 36 % en 2008 et 51 % des utilisateurs jugent insuffisant le débit de l'Internet mobile. Une préoccupation montante donc dans la population française, ce qui confirme aussi les enseignements de l'étude similaire (concernant l'Europe) publiée cet été par l'Union européenne. Les opérateurs savent maintenant ce qu'ils ont à faire.
Illustration : Benchmarks de Speedtest.net réalisés par les utilisateurs partout dans le monde. La France est 24ème en terme de débit ADSL derrière le Portugal et la Roumanie. (...)
Bien développer sur le web pour plusieurs plateformes mobiles
Pour commencer, le consortium international suit une bonne pratique dans l'élaboration des normes : partir des normes existantes (HTML5, CSS3, SVG...) et n'en dévier que lorsque c'est absolument nécessaire. Les bonnes pratiques pour les applications Web mobiles (MWABP) ne constituent pas à proprement parler une norme nouvelle mais bien d'un bon usage des normes existantes en adaptant leur emploi au contexte de l'accès mobile.
Bien entendu, l'industrie mondiale est impliquée dans ce travail au delà de sa participation classique aux travaux du W3C. On trouve ainsi dans le groupe de travail des opérateurs chinois, américains ou européens (China Unicom, AT&T, France Telecom, Deutsche Telekom...), des éditeurs de services ou d'OS et des constructeurs (Nokia, Google, HP, Opera Software...).
Photo : D.R.
Atos Origin et Siemens nouent un partenariat stratégique
Pour un montant total de 850 millions d'euros, la SSII Atos Origin reprend IT Solutions and Services (SIS), l'entité de services informatiques de Siemens. Avec cette transaction, Atos devient une société de services informatiques ayant un chiffre d'affaires 2010 proforma de 8,7 milliards d'euros et un effectif de 78 500 salariés dans le monde, avec une présence dans 42 pays. Dans le détail, en échange de sa division informatique, Siemens recevra une participation de 15% dans Atos Origin, - devenant ainsi le deuxième actionnaire du groupe derrière PAI Partners (25%) - ainsi qu'une obligation convertible en actions à échéance de 5 ans pour 250 millions d'euros et un montant en numéraire de 186 millions d'euros. Dans le même temps, la SSII française fournira des services d'infogérance et d'intégration de systèmes à Siemens pour une durée de 7 ans. Un contrat d'un montant de 5,5 milliards d'euros. « Pour les sept prochaines années, la nouvelle société sera responsable de fournir et d'opérer l'informatique de Siemens » a confirmé Peter Löscher, PDG de Siemens.
Le nouvel ensemble Atos/SIS devrait connaître en 2011 une croissance du chiffre d'affaires en ligne avec celle du secteur avec une marge opérationnelle de l'ordre de 6%. A horizon 2013, le groupe prévoit de réaliser un chiffre d'affaires compris en 9 et 10 milliards d'euros pour une marge opérationnelle entre 7% et 8%. Aujourd'hui nettement devancé par Cap gemini, Atos ambitionne de devenir la première société de services informatiques en Europe et la septième dans le monde.
Une filiale déficitaire pour le groupe allemand
Depuis mars 2010, Siemens IT Solutions and Services a fait l'objet d'une réorganisation et d'une restructuration profondes. Déficitaire, la filiale a entamé sa mue avant la transaction pour générer de fortes synergies dans un futur proche. Les effectifs de SIS vont être progressivement réduits de 1 750 personnes, dont 650 en Allemagne principalement sur les fonctions supports. Siemens contribuera pour 250 millions d'euros aux coûts d'intégration et de formation.Aujourd'hui, SIS est un spécialiste en infogérance avec une présence internationale. Il dispose de positions en Allemagne, en Europe du Nord, du centre et de l'Est. En 2010, SIS a généré un chiffre d'affaires proforma de 3,7 milliards d'euros pour le périmètre de la transaction. L'effectif de SIS (en équivalent temps pleins) sera de 28 000 employés à la date de la signature finale.
[[page]]
La signature finale de la transaction est fixée début juillet 2011 après consultation des organisations représentatives des salariés d'Atos, l'accord des autorités de la concurrence, et l'approbation des actionnaires réunis en Assemblée Générale Extraordinaire fin juin 2011.
Des synergies sur le transactionnel
Atos et Siemens développeront conjointement des nouveaux produits et des solutions et se sont engagés, dans ce cadre, à investir 50 millions d'euros chacun dans l'Innovation. Cet accord permettra de renforcer les opportunités de développement d'Atos sur les Services Transactionnels de Haute Technologie (HTTS) et dans des secteurs à forte croissance tels que la santé, l'énergie, le transport et l'industrie.
PAI Partners, principal actionnaire d'Atos Origin, soutient l'opération engagée avec Siemens lors du Conseil d'administration approuvant l'opération, et la soutiendra à nouveau devant l'Assemblée Générale. Cette opération devrait transformer profondément Atos. Selon PAI Partners elle permet à Atos d'atteindre la taille critique sur le marché allemand et en Europe du Nord et de se structurer autour de deux métiers majeurs (HTTS et IT Services) et d'ouvrir des perspectives de développement dans tous ses métiers.
Illustration principale : Thierry Breton, PDG de Atos Origin, crédit photo D.R.
| < Les 10 documents précédents | Les 10 documents suivants > |