Flux RSS
108538 documents trouvés, affichage des résultats 8821 à 8830.
| < Les 10 documents précédents | Les 10 documents suivants > |
(08/03/2010 16:38:15)
IBM condamné à payer plus de 11 millions d'euros à la MAIF
Le tribunal de grande instance de Niort a donné raison à la MAIF dans son contentieux l'opposant à IBM, selon une information de notre confrère Sébastien Kerouanton de la Nouvelle République. Les faits reprochés portent sur la livraison tardive d'un projet baptisé « GRS » (gestion de la relation sociétaire) en en avril 2006 pour un prix de 7.302.822 euros. Après plusieurs retards et réévaluation du projet (jusqu'à 18 millions d'euros pour la partie financière), la société d'assurance met fin à la collaboration et la partie judiciaire débute. IBM et sa banque BNP Paribas Factor ont demandé 13 millions d'euros à la MAIF, au titre de factures impayées et des dommages et intérêts pour rupture abusive et unilatérale de leur contrat. De son côté, la MAIF qui demandait 19 millions d'euros de réparation, a démontré, par un rapport d'expert indépendant qu'IBM « a obtenu le contrat aux termes de manoeuvres consistant à faire croire qu'elle maîtriserait l'ensemble des paramètres du projet ». Les juges de Niort ont souligné « les lacunes majeures » du projet d'IBM, conduisant à « une adhésion viciée et une réticence dolosive ayant affectée la validité du contrat ».En conséquence, la juridiction condamne la société informatique à verser « 1,6 millions d'euros à la MAIF et à lui verser 9,5 millions d'euros au titre de dommages et intérêts ». IBM devra verser les sommes indiquées même en cas d'appel, car soumises à exécution provisoire. Cette affaire n'est pas sans rappeler le cas Optimia d'EDF-GDF, au début des années 90. Le groupe énergétique avait souhaité mettre en place une gestion spécifique de sa clientèle. Après plusieurs intervenants et autant de péripéties, IBM devient maître d'oeuvre en 1998, mais demande un délai et un financement supplémentaires en 2000. Conditions refusées, par le comité de direction qui prend, également acte de l'arrêt de l'épisode Optimia Cible. L'aventure s'est soldée par 8 années d'efforts et près de 2 milliards de francs (soit 300 millions d'euros) d'investissements. (...)
(08/03/2010 16:34:16)Apple divise par 5 l'accès au programme développeurs pour Mac OS X
Apple vient de baisser sensiblement le coût d'accès à son programme développeurs sur Mac OS X, permettant de bénéficier d'un ensemble de ressources techniques et du support du constructeur. Désormais baptisé Mac Developer Program, par analogie avec l'iPhone Developer Program, ce service est proposé à 99 dollars par an, alors qu'il fallait jusqu'à présent débourser près de 500 dollars pour adhérer au programme Apple Developer Connection (ADC) Select et près de 3 500 dollars pour accéder au niveau ADC Premier. La société de Steve Jobs explique que sa décision a justement été motivée par le succès de l'iPhone Developer Program, déjà tarifé à 99 dollars l'an et avec l'objectif de susciter la création d'applications convenant à la fois à Mac OS X et iPhone OS. Pas de réductions sur les achats de matériel Les développeurs ayant souscrit au programme ADC conservent l'ensemble de leurs ressources jusqu'à l'échéance de leur adhésion. Au-delà, toutefois, ils ne pourront pas le renouveler et devront souscrire à la nouvelle formule, perdant de fait certains avantages, comme les réductions sur l'achat de matériels et un recours plus fréquent au support. A l'inverse, ceux qui n'ont adhéré à ADC qu'à partir du 1er février 2010 peuvent contacter Apple pour un remboursement. Le nouveau programme, auquel on adhère toujours à titre personnel (à partir de 18 ans) ou pour le compte d'une entreprise, donne droit aux pré-versions de Mac OS X, aux documentations techniques et à deux supports d'incidents pour l'année. Il inclut également l'accès aux forums développeurs et à des vidéos techniques commentées par des ingénieurs d'Apple. En complément, des services de support additionnels peuvent être acquis (deux pour 99 dollars et cinq pour 249 dollars). A noter qu'il existe toujours un accès gratuit à l'environnement de développement intégré Xcode 3, ainsi qu'à plusieurs autres outils (Dashcode, Instruments, Interface Builder, iPhone simulator...) pour pouvoir commencer à développer pour les environnements iPhone OS et Mac OS X. (...)
(08/03/2010 15:34:03)Sogeti et Capgemini dévoilent leur offre cloud
Infostructure Transformation Services (ITS), tel est le nom choisi par Capgemini et Sogeti pour accompagner les entreprises dans la migration vers les solutions de cloud computing. Travaillant depuis quelques mois sur cette évolution, les deux sociétés proposent de gérer cette transformation en plusieurs étapes, l'optimisation des datacenters, la virtualisation, les solutions clouds et les communications unifiées.
Pour gérer ces différentes briques, les deux structures apportent leur expertise de consultants et d'intégrateurs de solutions. Elles ont développé des processus et méthodologies pour faciliter la migration du système d'information du physique au virtuel, puis au cloud, tout en passant d'une logique classique d''intégration de systèmes à celle d'un assemblage de services.
Capable de gérer aussi bien les clouds publics, privées ou hybrides, les offres proposées, utilisent des solutions reconnues comme Microsoft Azure ou les services d'Amazon par exemple. L'offre ITS s'inscrit dans le programme « Business as Unusual » de Capgemini qui comprend déjà trois offres, « Business Information Management », « Application Lifecycle Services » et « Testing ». Une quatrième interviendra fin mars et portera sur les « Smart Energy Services ». Fort de ce portefeuille, les deux groupes espèrent, selon Philippe Rochet, directeur d'Infostructure Transformation Services Capgemini-Sogeti France, une hausse du carnet de commandes de 800 millions d'euros pour 2010. (...)
Une alliance veut évangéliser les datacenters à l'open source
OSDCI, voilà l'acronyme de l'initiative pour des datacenters en open source, qui doit être le trait d'union entre les avancées technique et l'ingénierie sur le design des centres de calculs. Ce groupe s'est adjoint les conseils de Michael Manos, qui a travaillé sur le développement des datacenters de Microsoft et s'occupe maintenant d'élaborer l'infrastructure cloud de Nokia. « L'industrie des fermes de serveurs est dominée par de grandes groupes d'ingénierie, qui eux-mêmes utilisent des architectures majoritairement propriétaires. Ces sociétés n'ont pas assez d'émulation pour proposer à leurs clients des solutions alternatives, plus simples et standardisées » explique-t-il Le groupe jouera également un rôle de conseils, en publiant des données mondiales sur le coût d'implémentation des projets, tels que les systèmes de climatisation, pour que les clients disposent de « plus de transparence » dans leur prise de décision. Un élan participatif Michale Manos s'est entouré d'une équipe de conseillers, issus des communautés utilisateurs finaux, pour travailler conjointement avec le groupe de recherche sur des problématiques communes, comme l'efficience énergétique. L'Open Source Data Center Initiative a été fondée par Dave Ohara, un ingénieur formateur (Hewlett Pakcard, Apple et Microsoft) qui travaille maintenant sur le blog Green Data Center. Il a collaboré avec l'université du Missouri pour construire un datacenter, où il a testé des technologies issues de l'open source. Ce projet a été réalisé en plusieurs étapes et a soulevé plusieurs questions sur sa façon de fonctionner. « Pour garantir leur succès, les projets open source ont besoin d'une participation de l'ensemble des acteurs » explique Joe Polastre, CTO de Sentilla, qui propose des outils de surveillance de la consommation énergétique des datacenters. Pour améliorer cette participation,Michael Manos souhaite « apporter aux petites structures d'ingénierie un accès à des pools d'ingénieurs qui pourrait les aider à être plus compétitif et leur donner une certification à leurs solutions ». [[page]] Du côté des grandes sociétés d'ingéniérie, cette initiative est, sans surprises, rejetée. Bruce Edwards, président de la CGC Facilities Integration, souligne que « les datacenters ont vu des innovations significatives depuis 10 ans, notamment dans le domaine l'énergie ou du refroidissement des salles. » Il est aussi critique sur les motivations de ce groupe industriel : « l'idée qu'un modèle collaboratif sans profit, ni aspect concurrentiel serait le moteur de l'innovation, je ne partage pas ce point de vue ». Une autre voie L'alliance a expliqué qu'il ne rentrerait pas en compétition avec d'autres structures comme le Green Grid Forum ou l'Institut Uptime, même si elle considère faible le niveau des progrès réalisés. Manos salue ainsi « l'adoption des meilleures pratiques depuis quelques années de ces différents groupes, mais peu ont obtenu des avancées et des réalisations à cause des pressions financières. Nous devons donc proposer une autre voie » (...)
(08/03/2010 15:03:27)Huit coeurs et tolérance aux pannes accrue pour les Intel Xeon Nehalem-EX
Développée pour les serveurs quatre sockets, la génération Xeon Nehalem-EX (huit coeurs par processeur) vise le marché haut de gamme : base de données et usage intensif d'applications dans des environnements virtualisés. La semaine dernière, IBM a annoncé qu'il mettrait en oeuvre ces puces dans ses serveurs System x eX5 . Le PDG d'Intel, Paul Otellini, a simplement décrit Nehalem-EX comme le processeur maison le plus rapide à ce jour. Aucune information sur la fréquence n'a été indiquée mais la puce, gravée en 45 nm, sera dotée de 24 Mo de cache et de 2,3 milliards de transistors. Chaque noyau physique sera en mesure d'exécuter deux threads simultanément, ce qui permettra à cette plate-forme de supporter jusqu'à 64 coeurs virtuels sur les serveurs, a déclaré Shannon Poulin, directeur Plate-forme Xeon d'Intel. Rappelons que l'architecture Nehalem intègre le contrôleur mémoire et améliore la vitesse du système en réduisant les goulets d'étranglement qui ont longtemps été le talon d'Achille des systèmes Xeon. Intel exploite également de nouvelles technologies comme la MCA pour améliorer la correction d'erreurs. Le processeur sera capable de détecter les erreurs issues du CPU ou de la mémoire et de les corriger en travaillant avec le système d'exploitation. Certaines de ces technologies sont issues des travaux engagés sur les puces très haut de gamme Itanium, qui reposent sur une architecture distincte et principalement destinées aux systèmes Unix hautes disponibilités. Les processeurs EX intègrent également des composants de mémoire tampon distincts pour stocker temporairement des données aux côtés de la mémoire principale et accélérer significativement l'exécution des tâches. Sur cette plate-forme, Intel devrait également offrir quatre canaux de mémoire par processeur, indique Shannon Poulin. Une condition sine qua none pour rattraper AMD et sa puce douze coeurs pour serveurs, le célèbre Opteron Magny-Cours. Plus de tuyaux pour fournir plus de bande passante mémoire et exécuter plus rapidement les programmes. Intel apporte plus de mémoire cache avec son Nehalem-EX pour améliorer les performances de sa puce, mais AMD Magny Cours offre plus de noyaux physiques par processeur. [[page]] AMD a commencé à livrer ses processeurs Magny-Cours, et l'arrivée de l'Intel Nehalem-EX devrait intensifier la bataille entre les deux rivaux qui cherchent à obtenir très rapidement des références clients dans les entreprises, nous a indiqué Nathan Brookwood, analyste chez Insight 64. Mais dans cette bataille, AMD pourrait détenir un avantage sur Intel quant à la tarification. Le fondeur de Santa Clara pourrait facturer un supplément substantiel pour ses puces Nehalem-EX, tandis que le processeur Magny-Cours offrirait un meilleur rapport coût /performances par coeur selon l'analyste. Les résultats de cet affrontement pourraient toutefois tourner court car les performances ne constituent qu'une partie de l'affaire, poursuit Nathan Brookwood. Les Nehalem-EX pourraient conquérir un nouveau marché grâce aux fonctionnalités supplémentaires comme la tolérance aux pannes, précise encore Nathan Brookwood. Intel pourrait enfin imposer ses puces X86 sur le territoire des serveurs haut de gamme partagé aujourd'hui entre les processeurs Risc d'IBM (PowerPC), d'Oracle/Sun (Sparc) et même de HP/Intel (Itanium). Le directeur de la plate-forme Xeon d'Intel, Shannon Poulin, indique également que la société lancera également des puces Xeon basées sur l'architecture Westmere. Des processeurs six coeurs qui seront tout d'abords intégrés aux serveurs bi sockets. Le jeu de composants capable de gérer des cartes mères quadri sockets ne sera pas disponible avant l'année prochaine. Gravé en 32 nm, les puces Westmere intègrent 1,17 milliard de transistors et jusqu'à 12 Mo de mémoire cache. Selon Intel, cette plate-forme offrira des performances améliorées et des économies d'énergie par rapport aux précédentes puces quatre coeurs. La dernière actualisation des processeurs pour serveur a été livrée en mars de l'année dernière, lorsque la société avait annoncé les Xeon série 5500 et 3500 basés sur l'architecture Nehalem et gravés en 45 nm. (...)
(08/03/2010 12:07:22)Projet Chorus : la Cour des comptes épingle Eric Woerth
L'institution de contrôle des comptes publics, qui sera bientôt présidée par Didier Migaud(*), vient d'adresser un référé au ministre du Budget et des Comptes publics, Eric Woerth, pour s'inquiéter de la complexité et du retard dans la généralisation du projet, rapportent nos confrères du quotidien économique Les Echos. La dérive sur les délais et le budget prévus pour Chorus avait déjà été évoquée en 2008 et Eric Woerth s'en était alors expliqué, soulignant notamment le nombre de prestataires externes intervenant sur le projet. Chorus doit regrouper tous les acteurs de la gestion publique dans une chaîne unique, en s'appuyant sur un unique progiciel de gestion intégré, apporté par l'éditeur SAP. Le document envoyé cette fois par la Cour des comptes pointe, d'une part, la complexité des informations comptables qui rend difficile la vérification du budget. D'autre part, l'institution juge que les données fournies sur le patrimoine immobilier de l'Etat sont insuffisantes. Le projet est supposé renforcer la traçabilité des données financières de l'Etat pour en faciliter le contrôle. (*) L'intérim de la présidence est assuré par M. Alain PICHON, Doyen des présidents de chambre de la Cour des comptes, à la suite du décès en janvier de Philippe Seguin. (...)
(08/03/2010 10:37:13)Télécom Italia au coeur d'un scandale financier
(Source EuroTMT ) C'es la tempête sur Télécom Italia. Stefano Mazzitelli, l'ancien administrateur délégué de Sparkle, la filiale de Telecom Italia, a été arrêté pour son implication dans un scandale de fausses facturations et de fraude fiscale. Selon le parquet de Rome, Sparkle et l'opérateur de fibre optique Fastweb auraient mis au point un système de fausses facturations de services téléphoniques et télématiques inexistants pour un montant global de 2 milliards d'euros. L'Etat italien aurait ainsi perdu quelques 365 millions d'euros, soit la somme qui n'aurait pas été payée au fisc par les dirigeants des deux sociétés impliquées dans ce scandale. La TVA aurait été versée sur des comptes situés à l'étranger et réinvesti dans l'immobilier et l'achat de bijoux et de voitures. Selon les enquêteurs, les dirigeants, incarcérés de Sparkle et Fastweb, auraient utilisé des sociétés écrans relevant du droit italien, anglais, finlandais et luxembourgeois. 1,2 milliard d'euros envolés à la Bourse Dans ce contexte, l'opérateur Télécom Italia a repoussé l'approbation de son bilan 2009 au 25 mars prochain. Quant à la présentation du nouveau plan industriel qui devait avoir lieu vendredi dernier, elle a été fixée au 29 avril. A l'origine de ces deux décisions importantes, la chute du titre Telecom Italia qui a perdu 5,3 % à la bourse de Milan jeudi 25 février. Aux dernières nouvelles, la valorisation de l'opérateur a perdu l'équivalent de 1,2 milliard d'euros la semaine dernière. Les investisseurs ont été refroidis par la saisie de 300 millions de Sparkle à titre préventif et par la position du tribunal qui réclame la mise sous tutelle de la filiale de Telecom Italia. La décision des magistrats devrait tomber dans les jours qui viennent. En attendant, la direction de Telecom Italia essaye de requinquer le moral de ses troupes et des investisseurs. C'est d'ailleurs dans cet état d'esprit que l'administrateur délégué du groupe Franco Bernabe vient d'annoncer que l'opérateur se portera partie civile contre les anciens dirigeants de Sparkle. [[page]] Au-delà de l'aspect judiciaire, cette affaire pourrait avoir d'autres retombées importantes pour Telecom Italia. A commencer par la fusion avec Telefonica qui ressemblait, il y a quelques jours encore, à un mariage forcé en raison de la situation financière difficile de l'opérateur italien. En effet, selon les données préliminaires, les comptes ne se portent pas très bien. Le groupe affiche quelques 34 milliards de dette, l'Ebitda est en chute libre (11,3 milliards soit 4,4 milliards de moins par rapport à l'an dernier), tout comme les revenus dans la téléphonie fixe et mobile (- 5,6 % par rapport à 2008) sans parler de la détérioration constante de la marge d'expansion du groupe sur les marchés étrangers. Selon les analystes, les bénéfices nets devraient tourner autour de 1,5 milliards d'euros, mais il ne s'agit que d'estimations approximatives. En revanche, les coûts ont été globalement réduits de 900 millions d'euros grâce avant tout, à une réduction des effectifs (- 5 700 salariés). Dans ce contexte, Telecom Italia ne semblait pas avoir trop le choix. Mais après le scandale Sparkle, les fiançailles pourraient être rompues. Selon le quotidien « La Repubblica », un représentant de l'establishment industriel aurait déclaré sous couvert d'anonymat : « Telefonica ne se lancera jamais dans une opération risquée avec un groupe tellement compromis sur le plan judiciaire que la direction a du repousser la date de présentation de l'exercice 2009 ». Une fusion en sursis Pour l'heure, les Espagnols ne bougent pas. Tout comme la direction de Telecom Italia, Cesare Alierta, le PDG de Telefonica, veut probablement attendre le déroulement de l'enquête et surtout, la décision du tribunal sur l'éventuelle mise sous tutelle de Sparkle. Que va-t-il donc se passer ? « Wait and see » confient en coulisse quelques dirigeants. Certes, l'annulation de la fusion avec Telefonica, qui n'est pas encore bouclée, posera de sérieux problèmes à l'opérateur qui devra revenir à la case départ et trouver de nouveaux interlocuteurs, peut-être en Italie. C'était d'ailleurs la solution proposée au départ par le gouvernement Berlusconi qui parlait de défendre l'italianité de l'opérateur en évitant la solution espagnole. Toutefois, le scandale Sparkle pourrait avoir raison des éventuels prétendants qui traînent déjà les pieds quant on leur demande d'investir en raison du contexte économique transalpin plutôt morose. (...)
(08/03/2010 10:21:47)Gestion des accès, le marché mondial va progresser de 8% en 2010 selon Gartner
Dans sa quête des marchés, ou des niches de marchés, susceptibles de progresser fortement, le cabinet Gartner livre une projection sur le marché de l'identité et de la gestion des accès (en anglais IAM pour Identify Access Management). Il devrait se monter à 9,9 milliards de dollars en 2010 en progression de 8% par rapport à 2009. Il devrait passer à 11,9 milliards de dollars d'ici fin 2013. Plusieurs facteurs vont encourager ce secteur, le cabinet d'études cite : l'audit de conformité, les exigences analytiques, l'efficacité opérationnelle et une meilleure intégration. Clairement, le Gartner estime que ce secteur va sortir de la crise. «La technologie de l'IAM est une composante essentielle des stratégies de sécurité des entreprises, et les clients de Gartner ont indiqué qu'environ 8 pour cent de leurs budgets de sécurité sont dédiés à l'IAM", note Ruggero Contu, analyste principal chez Gartner. (...)
(08/03/2010 10:14:35)Cebit 2010 : Microsoft va dépenser 9,5 milliards de dollars en R&D en 2010
Microsoft a prévu de dépenser 9,5 milliards de dollars en recherche et développement cette année, a indiqué Kevin Turner, le directeur général (COO) de la société, au cours d'une intervention au Cebit de Hanovre la semaine dernière. C'est, a-t-il assuré, bien au-delà de ce que consent n'importe quel concurrent dans ce domaine. Il chiffre la différence à 3 milliards de dollars de plus par rapport à l'acteur IT le plus proche de Microsoft. La plupart de ces investissements seront centrés sur les services de cloud, ou sur des outils informatiques hébergés proposés en ligne aux utilisateurs. « A la lumière des difficultés macro-économiques dont nous sortons, nous avons vraiment décidé de redoubler nos efforts d'innovation. Nous allons réinventer notre société en mettant le cloud au premier plan », a déclaré le directeur général, tandis que sur la côté Ouest des Etats-Unis, à peu près au même moment, son PDG Steve Ballmer tenait un discours semblable à l'Université de l'Etat du Washington. Kevin Turner affirme que Microsoft dispose déjà de plus de services de cloud que tout autre, en commençant par ses messageries grand public, jusqu'à ses logiciels hébergés pour les entreprises (tels que Dynamics CRM, l'offre de gestion de la relation client), en passant par sa plateforme de cloud, Azure. Il y aura toujours besoin de logiciels clients classiques Microsoft conservera malgré tout une activité logicielle traditionnelle significative, a poursuivi Kevin Turner. L'éditeur de Redmond a subi ces dernières années une pression de plus en plus forte de la part de sociétés telles que Google, qui vend des suites de productivité entièrement accessibles en ligne. Mais son directeur général considère qu'il y aura toujours besoin de logiciels clients classiques, capables de fournir des fonctionnalités plus étendues. Le dirigeant a également profité de l'occasion pour défendre le système d'exploitation Windows Mobile 7, présenté au WMC de Barcelone et qui sera livré cette année. Sur ce terrain aussi, la concurrence est rude, de la part d'Apple, de Nokia et des fabricants s'appuyant sur l'OS Android de Google. Windows Mobile 7 est une complète refonte des précédents OS mobiles de Microsoft, a indiqué Kevin Turner, et il est étroitement intégré avec la console Xbox et les baladeurs Zune. « Ce n'est pas un produit de suiveur », a-t-il insisté. (...)
(08/03/2010 10:05:15)La SSII GFI Informatique mesure son empreinte carbone
La SSII française GFI Informatique rassemble 10 000 collaborateurs dans le monde, dont un grand nombre en clientèle. Sensibilisée aux problématiques environnementales, elle a entrepris de maîtriser son empreinte carbone. Il s'agissait, d'une part, d'anticiper une future réglementation contraignante voire coûteuse, d'autre part d'expérimenter sur elle-même des méthodes qui pourraient ensuite entrer dans des offres commercialisées de Green-IT/IT-for-Green. En 2008, GFI Informatique France a eu une empreinte représentant 10 700 tonnes de CO2, sur lesquels 7 500 ont concerné les déplacements professionnels et 1 300 les consommations directes d'énergie. La moyenne par collaborateur était donc de 1,8 T CO2/an. Commencer par connaître la situation Le groupe de services informatiques a eu recours au cabinet Zen'To, certifié par l'ADEME (Agence de l'Environnement et de la Maîtrise de l'Energie) pour utiliser sa méthodologie Bilan CarboneTM. Quantifier les émissions de CO2 a nécessité la collecte de données relatives à l'activité de GFI sur un an afin d'obtenir une bonne représentativité. Outre la consommation des bâtiments par type d'énergie, l'électricité utilisée par les datacenters et l'amortissement carbone des actifs (notamment les datacenters), la SSII a calculé le kilométrage parcouru par type de transports en distinguant déplacements professionnels et les trajets domicile/bureau, la facture de carburants, les billets d'avion en avions ou trains et, enfin, la quantité de déchets produits... Le traitement des données collectées a été réalisé dans le logiciel dédié Acco2untenterprise de GreenStone Carbon Management. «GFI se positionne dans la bonne moyenne des sociétés de services en matière d'empreinte carbone mais la mesure n'a qu'une indication toute relative et n'est que le point de départ d'une démarche d'amélioration continue », a déclaré Thierry Rudowski, président de Zen'to. Dans le cas de GFI, « la société a pris le sens de cette démarche » a-t-il ajouté. Des mesures concrètes à effet rapide Plusieurs mesures avaient déjà été prises pour diminuer l'impact carbone sans atteindre les résultats de l'audit de Zen'To. Ainsi, GFI avait rationalisé son parc d'imprimantes et allongé la durée de vie de ses matériels informatique à 5 ans. En 2009, la SSII a installé un système de vidéo-conférence entre chacun de ses 17 sites afin de limiter les déplacements entre eux. Une optimisation de la flotte de véhicules professionnels a également contribué à baisser l'impact des déplacements. Après les résultats de l'audit de Zen'To, l'entreprise a décidé de mieux maîtriser encore le contrôle de la dépense énergétique de son informatique interne, les déplacements professionnels de ses salariés (notamment en favorisant les solutions alternatives telles que les vidéoconférences), etc. Par ailleurs, la SSII a profité des leçons tirées de sa propre expérience pour définir une offre de « SI éco-responsable ». (...)
| < Les 10 documents précédents | Les 10 documents suivants > |