Flux RSS

Green IT

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

297 documents trouvés, affichage des résultats 1 à 10.

Les 10 documents suivants >


(18/01/2012 10:07:49)

Les centres de calcul scandinaves sont les plus efficients en Europe

Lors de la première édition de de l'Oracle Next Generation Data Centre Index publiée l'an dernier, la Suisse et l'Allemagne, étudiées conjointement, arrivaient au premier rang. Cette année ce sont les pays scandinaves qui décrochent la première place avec un indice de 6,51. La Suisse et l'Allemagne augmente leur indice par rapport à l'an dernier pour atteindre 6,21. Suivent ensuite les pays du Benelux, la Grande-Bretagne, la France, les pays du Moyen-Orient et la péninsule ibérique et l'Italie. L'Irlande et la Russie finissent dernier.

Pour cette étude réactualisée (voir la note 2012 de l'éditeur), ont été interrogés 949 responsables informatiques travaillant dans des entreprises dont le chiffre d'affaires est compris entre 100 millions et un milliard de dollars dans dix pays de la région EMEA. Elle  a été menée par la société Quocirca pour le compte d'Oracle.

Au niveau global, il ressort de cette étude que de nombreuses grandes entreprises ont été  surprises par l'explosion du volume de données (les « Big Data ») due à l'augmentation des interactions entre les consommateurs et les marques, les terminaux mobiles, la forte augmentation des communications entre machines ou la multiplication des informations manipulées par les processus opérationnels internes des entreprises. Pour Luigi Freguia, Senior Vice President d'Oracle, cette question va toutefois devenir un enjeu majeur pour les entreprises : « La maîtrise des Big Data va devenir le défi informatique numéro un pour les entreprises au cours des deux prochaines années. A la fin de cette période, soit elles auront su faire face, soit elles seront en total décalage par rapport à leur propre activité - sans parler des risques et des opportunités que représentent les Big Data. »

Parmi les autres résultats, on peut encore noter :


ICTJournal.ch (...)

(07/12/2011 11:43:54)

Danone mesure l'empreinte carbone de ses produits avec SAP

Sur le chemin qui le mène vers la réduction de 30% de son empreinte carbone globale d'ici à 2012, Danone s'emploie à diminuer les émissions de dioxyde de carbone associées aux produits laitiers qu'il fabrique (*). Sur ce projet, le groupe agro-alimentaire français fait équipe avec SAP autour des solutions informatiques permettant de calculer les empreintes par produits et par entités de l'entreprise. L'objectif est de mesurer l'impact de chaque étape pour prendre les décisions les plus appropriées en fonction des objectifs. Cela inclut la chaîne agricole et les choix géographiques d'approvisionnement, les modes de transport, les emballages et leur fin de vie, etc.

« Nous avons décidé de passer par une mesure sur les produits, comme en comptabilité analytique, en partant d'un point zéro pour évaluer les progrès, a expliqué hier à Paris Myriam Cohen-Welgryn, directrice générale Nature de Danone. « Nous voulions responsabiliser les employés, que chacun connaisse l'empreinte de son périmètre pour agir à son niveau. » Sur le papier, l'objectif semblait déraisonnable, ajoute-t-elle. « Mais nous allons l'atteindre. Le carbone, demain, sera monétarisé. Le gérer aujourd'hui, cela constitue un objectif compétitif pour l'entreprise ». Actuellement, le groupe a une empreinte carbone de 14 millions de tonnes équivalent CO2, ce qui correspond à 2 kg de carbone par kilo dans les produits frais et 200 gr/l sur les bouteilles d'eau(**). « C'est une véritable transformation de l'entreprise que nous faisons là. Cela permet d'éclairer les décisions prises au quotidien », insiste la DG Nature.

Danone cédera la propriété intellectuelle du projet

La coopération avec SAP apporte à Danone l'assurance de mettre la solution en oeuvre plus rapidement en gardant de l'avance par rapport à la concurrence, explique Jean-Marc Lagoutte, directeur général des systèmes d'information. Pour l'éditeur, intégrer la problématique de Danone dans ses solutions va lui permettre de les proposer par la suite au plus grand nombre, complète de son côté Nicolas Sekkaki, directeur général de SAP France.

A terme, le groupe agro-alimentaire ne conservera pas la propriété intellectuelle relative à ce projet, mais il va bénéficier de son adoption par SAP puisque l'éditeur en assurera la maintenance et continuera à la faire évoluer. Or, pour Danone, il est très important de pérenniser cette solution, souligne son DSI.

80% des données déjà collectées automatiquement


Le système d'information du groupe français repose déjà sur des solutions SAP, un choix qui remonte à dix ans. Environ 80% des données couvrant le cycle de vie de ses produits fabriqués sont collectées automatiquement dans l'ERP. Les coûts de mise en place du projet ont donc été marginaux pour Danone si on les compare aux coûts d'intégration que devraient prendre en compte des entreprises équipées d'autres systèmes. Dans le domaine logistique par exemple, en amont et en aval, les informations sont déjà suivies de manière très opérationnelle par Danone. « Il suffit d'intégrer ces données avec la mesure carbone pour savoir ce qui est généré en termes d'empreintes. Donc, l'intégration avec la plateforme SAP est clé, absolument », confirme le DSI Jean-Marc Lagoutte.

[[page]]

« Pour faire de la co-innovation, il faut une vision partagée entre deux entreprises, souligne de son côté Nicolas Sekkaki, DG de SAP France en rappelant l'importance accordée par l'éditeur au développement durable depuis plusieurs années. Début 2009, le groupe allemand, alors co-dirigé par Léo Apotheker, s'était lui-même fixé des objectifs de réduction de son empreinte carbone et lançait notamment la suite EHS pour gérer les risques sanitaires et environnementaux. Il a depuis renforcé son offre avec le rachat de Technidata.

Recours à des logiciels d'analyse de la rentabilité


Dans le cadre de la coopération avec Danone, ce sont des logiciels financiers qui sont mis en oeuvre. « Le développement durable, c'est un autre prisme pour voir la performance de l'entreprise et trouver de nouveaux gisements de productivité », poursuit Nicolas Sekkaki. Pour l'analyse des données, il faut disposer ici d'une granularité par produit. « Nous nous sommes aperçus que les solutions que nous avions dans le monde financier pouvait être adaptées à cette problématique ». En l'occurrence, il s'agit des logiciels BusinessObjects FIM (Financial Information Management), utilisé pour récupérer les données sources, et BusinessObjects PCM (Profitability & Cost Management), pour gérer les coûts et la rentabilité.

La collaboration entre SAP et Danone a permis « de prendre des données et processus qui existaient pour en faire quelque chose de très novateur, en douze à dix-huit mois », met en avant Nicolas Sekkaki. Il souligne combien il est important, dans ce type de projet, « de comprendre la vision business dans le système d'information. Il faut avoir un DSI qui possède cette double casquette ».

Un programme mis en place en Espagne, en Belgique et aux Etats-Unis

Le projet a démarré par un test pilote, mené avec succès dans deux filiales en Espagne, puis en Belgique et aux Etats-Unis, avec l'entreprise Stonyfield Farm. « Fin décembre, nous aurons 22 projets », précise Jean-Marc Lagoutte. Danone prévoit d'installer la solution dans 40 de ses filiales d'ici la fin de l'année prochaine. Un déploiement qui couvrira alors 70% du chiffre d'affaires du groupe et plus de 35 000 produits. A terme, la solution doit être généralisée à 50 filiales pour couvrir les quatre domaines d'activité : produits laitiers frais, eaux en bouteille, nutrition infantile et nutrition médicale.

« Nous revisitons tous les processus élémentaires et nous simplifions considérablement », ajoute le DSI de Danone. Les problématiques environnementales sont prises en compte par le groupe depuis des années, rappelle-t-il. « La conduite du changement a été un facteur clé. Cela touche à tous les services de l'entreprise. Nous avons un 'carbon master' dans chacune des filiales. » Jean-Marc Lagoutte pointe aussi pour le groupe des bénéfices autres qu'environnementaux : « Il y a aujourd'hui des jeunes qui souhaitent rejoindre Danone à cause de ce genre de projets », indique-t-il.

(*) Danone s'est fixé comme objectif de réduire de 30% son empreinte carbone entre 2008 et 2012 sur la chaine où sa responsabilité directe est engagée (sites industriels, emballages et fin de vie, transport et stockage).
(**) Sur une empreinte 100, le lait représente 45%, les usines environ 10%, le transport entre 13 et 15%, le packaging entre 13 et 18 %, notamment.

(...)

(17/11/2011 17:19:43)

Supercalculateurs : Bull renforce l'efficacité énergétique des bullx

Sur le terrain du calcul haute performance, Bull redouble d'efforts pour améliorer l'efficacité énergétique de ses supercalculateurs. Le constructeur national vient d'annoncer pour le deuxième trimestre 2012 le premier modèle de sa série bullx B700 DLC, pour Direct Liquid Cooling. Celui-ci recevra des lames double largeur équipées des futurs processeurs Xeon E5 (architecture Sandy Bridge) d'Intel. Bull indique que ce système est capable d'évacuer beaucoup plus de calories qu'un serveur lame classique (jusqu'à 80 kW par rack contre 40 kW actuellement), ce qui lui permettra aussi d'intégrer les prochaines générations d'accélérateurs de calcul (GPU) ou de processeurs MIC (many integrated core) d'Intel, multi coeur, ultra denses.

Le groupe français a par ailleurs annoncé sa série de lames de calcul bullx B510, destinée à des systèmes de quelques noeuds de calcul jusqu'aux HPC multi-pétaflopiques. Il indique que celles-ci ont déjà été retenues pour le supercalculateur Curie installé au centre TGCC, en France, ainsi que pour le système Helios pour F4E, à Rokkasho, au Japon, dans le cadre du projet ITER du CEA. Basée sur des noeuds de calcul bi-socket regroupés par paire sur une lame, la série bullx B510 offre une puissance en crête supérieure à 37 Tflops par rack. Elle s'appuie sur des processeurs Xeon E5 d'Intel, avec une capacité mémoire pouvant aller jusqu'à 256 Go par lame. L'interconnexion entre les noeuds est assurée par des liens InfiniBand QDR ou FDR. Les lames bullx B510 seront commercialisées de façon générale au premier trimestre 2012, lorsque les processeurs Xeon E5 seront disponibles.

Châssis bullx
Le châssis bullx 7U reçoit 9 lames doubles, soit 18 noeuds de calcul  (crédit photo : Bull)

Un circuit d'eau à température ambiante

Pour réduire l'énergie consommée par ses systèmes, Bull utilisait déjà la technologie de porte froide. Avec la technologie DLC, ses équipes de R&D ont tablé sur un principe de refroidissement qui évacue la chaleur par un liquide situé au plus près des composants qui la génèrent. « Le refroidissement s'effectue à l'intérieur de la lame, par contact direct entre les composants chauds (processeurs, mémoires...) et une plaque froide dans laquelle circule un liquide caloporteur », explique le constructeur dans un communiqué. Dans la mesure où les processeurs fonctionnent à plus de 50° et les disques SSD à plus de 40°, un circuit d'eau à température ambiante suffit pour assurer le refroidissement. Le système peut donc être raccordé au circuit d'eau du site. En évitant de devoir produire de l'eau froide, on réduit d'autant la consommation électrique.

Un indicateur PUE réduit à 1,1

L'ensemble de ces dispositifs permet d'atteindre pour le système un indicateur d'efficacité énergétique (PUE*) de 1,1 dans des conditions normales d'utilisation, contre 1,8 pour les datacenters qui doivent recourir à d'autres équipements électriques, en particulier des climatiseurs. Bull précise en outre que ces serveurs présentent un niveau sonore très inférieur à celui des systèmes refroidis par air.

L'armoire bullx DLC a une capacité de montage de 42U (202 x 60 x 120 cm). Ses châssis 7U peuvent contenir 9 lames doubles, soit 18 noeuds de calcul. Le bullx B710 DLC fonctionne sous Red Hat Enterprise Linux et la suite bullx supercomputer.

(*) Le PUE (power usage effectiveness) mesure le ratio entre l'énergie consommé par l'ensemble de l'installation et l'énergie réellement consommée par les serveurs, établie à 1.

Illustration : bullx (crédit : Bull)

(...)

(10/11/2011 14:23:05)

HP et Dell devancent Nokia au classement vert de Greenpeace

Cette sixième édition du "Guide to Greener Electronics" classe 15 marques d'électronique selon divers critères environnementaux: les émissions de gaz à effet de serre, l'engagement à réduire ces émissions, la mise en place d'un programme d'énergie propre (qui inclut une utilisation accrue d'énergies renouvelables et un soutien aux politiques d'énergies propres aux niveaux national et sous-national).

Les classements de Greenpeace ont l'avantage d'être internationalement reconnus et, en conjonction avec d'autres campagnes, ils ont contribué aux évolutions des processus de fabrications de certaines grandes marques d'électronique, dont Samsung et Sony Ericsson. Cette année, Nokia, qui dominait le classement depuis trois ans, a été relégué à la troisième place, avec une note de 4,9/10. Greenpeace cite "le besoin de prouver comment [Nokia] va réduire ses émissions futures en s'appuyant sur l'efficience énergétique et l'emploi d'énergies renouvelables" pour expliquer le déclin du fabricant finlandais.

Le californien HP détrône le finlandais Nokia

C'est HP qui a pris la tête du classement cette année. D'après GreenPeace, la marque a obtenu de bonnes notes pour avoir "mesuré et réduit les émissions de carbone de sa chaîne de distribution, réduit ses propres émissions et soutenu une législation solide sur le changement climatique".

La deuxième place est dorénavant occupée par le fabricant d'ordinateurs Dell, qui a sauté huit places et a obtenu une moyenne de 5,1/10. Dell été loué par Greenpeace pour s'être fixé "l'objectif climatique le plus ambitieux et une stratégie de réduction de ses émissions de 40% d'ici 2015."

Avant la fin du mois, d'autres entreprises internationales oeuvrant directement ou non pour le développement durable et les pratiques respectueuses de l'environnement seront honorées aux Green Awards, une cérémonie annuelle qui a lieu le 24 novembre.

(...)

(27/10/2011 16:17:07)

Facebook construit son 1er datacenter européen près du cercle polaire

Facebook a débuté la construction d'un datacenter à Lulea en Suède. Il s'agit du premier en Europe et de son troisième au niveau mondial. Le site de réseau social prévoit d'aménager sa première salle avec des serveurs d'ici la fin de l'année prochaine. Le centre de calcul accueillera les premiers utilisateurs de Facebook en avril ou mai 2013. Trois autres salles serveurs au sein des 28 000 mètres carrés de construction seront finalisés en 2014. Le site choisi peut contenir  deux autres bâtiments de la même taille, mais Facebook n'a pas l'intention pour l'instant d'utiliser cette espace.

Luleå se situe au bord du cercle arctique et dispose d'une température annuelle moyenne de 1° C en sachant que l'été la moyenne est de 20° C. Avec ces caractéristiques climatiques, Facebook va utiliser le refroidissement par air extérieur pour son datacenter plutôt que la climatisation et ainsi réaliser des économies. Le PUE (Power User Effectivness) du prochain datacenter du site de réseau social n'a pas été donné, mais l'utilisation du procédé « Free Air Cooling » devrait le placer parmi les plus performants. Pour mémoire, les datacenters traditionnels ont un PUE compris entre 1,6 et 1,9.

En matière d'alimentation électrique, la rivière Lule proche de la ville fournira de l'énergie hydroélectrique. Les édiles de la ville de Lulea estiment que leur électricité est la moins chère en Europe.  A cela s'ajoute, le projet Open Compute de Facebook pour concevoir des serveurs économes.

Illustration : Maquette du datacenter de Facebook à Lulea

Crédit Photo: Sweco/The Node People

(...)

(28/09/2011 12:22:02)

Une solution IBM pour gérer les places de parking dans les villes

« Les systèmes de gestion des villes sur les capacités de stationnement sont assez inefficaces », a déclaré Vinodh Swaminathan, directeur des systèmes de transport intelligents d'IBM. « Pensez à une place de stationnement comme un actif fiscal. Avec la possibilité d'analyser ces actifs, nous pouvons les gérer beaucoup plus efficacement » précise le dirigeant. En collaboration avec Streetline, société basée à San Francisco, qui propose des capteurs de distance, IBM a donc créé une plateforme. Les capteurs sont capables de déterminer si un espace de stationnement est occupé par une voiture. IBM fournit le logiciel d'analyse via un service cloud, qui agrège les données des capteurs pour comprendre comment les places de parking d'une ville sont utilisées au cours du temps.

Pour cette offre baptisée Smarter Parking Starter Kit, Streetline va intégrer deux capteurs pour chaque espace de stationnement. Le premier déterminera si une voiture occupe la place et le second lira le compteur, pour savoir si l'automobiliste a payé et pour combien de temps il reste au compteur. Les données collectées sont transmises à travers un réseau mesh sans fil. IBM utilise son logiciel de BI Cognos, pour analyser les données et générer des rapports et des statistiques visibles sur un tableau de bord et mis à disposition des autorités publiques. Big Blue a déjà intégré des rapports pré-définis, comme les recettes des parkings, l'efficacité opérationnelle des compteurs, calcul du temps d'occupation des places de parking ou cartographie des zones où les stationnements sont le plus utilisés. Les villes peuvent développer leur propre analyse en utilisant ces données. Ils pourraient ainsi optimiser les recettes des places de parking en appliquant une politique tarifaire plus adaptée. Ils peuvent anticiper la demande pour les places de parking et fournir des alternatives à proximité. Un tel système pourrait rendre les villes plus agréables pour les utilisateurs et les touristes.

A l'attention des automobilistes aussi.

Vinodh Swaminathan n'a pas révélé de prix pour le kit Starter Smarter parking, mais il se dit prêt à négocier les tarifs avec les villes qui souhaitent adopter ce système. Il a indiqué que ce programme fait gagner de l'argent aux villes grâce à la surveillance et la gestion de leurs espaces de stationnement. Plus tard, ce système pourrait aussi fournir des services plus avancés, comme la possibilité pour les utilisateurs d'étendre la durée de stationnement grâce à une application pour smartphone.

Côté automobiliste, ils peuvent bénéficier des données de Streetline via une application gratuite, appelée Parker, pour iOS et Android. Ce programme permet d'alerter le conducteur d'une place libre à proximité. (...)

(21/09/2011 11:28:13)

Recyclage solidaire des parcs de PC en PACA

Le club de DSI CIP (Club Informatique Provence Côte d'Azur) et le réseau des prestataires provençaux MedInSoft lancent une opération de promotion du recyclage des anciens PC jusqu'à la fin de 2011. Celle-ci a été baptisée Eco-DSI. Ces deux associations rappellent au passage que le recyclage est obligatoire. Il est notamment strictement interdit de jeter des ordinateurs ou des équipements électroniques avec les ordures ménagères.

Deux autres associations interviennent en partenariat avec les précédentes pour réaliser la prestation de recyclage. Les faibles coûts, qui dépendent essentiellement du poids du matériel à enlever, sont déductibles fiscalement sous certaines conditions.

Récupération et recyclage

Première phase, l'association AVIE opère le recyclage lui-même : enlèvement sur site, délivrance d'un certificat de destruction et du BSD (Bordereau de Suivi des Déchets), inventaire, destruction des données, tri, reconditionnement... Cette association emploie des travailleurs handicapés, ce qui donne droit aux réductions des contributions obligatoires (AGEFIPH pour les entreprises et FIPHFP pour les administrations).

Dans un second temps, les matériels seront redistribués dans le cadre de l'opération Ordi 2.0 par l'association Une Idée Derrière L'Ecran. Cette redistribution s'effectue auprès d'associations ou de personnes nécessiteuses. (...)

(11/07/2011 15:49:38)

Les puces serveurs d'Intel plus intelligentes sur le refroidissement des datacenters

Ces capteurs mesureront les températures à l'entrée et à la sortie des serveurs, mais aussi le flux d'air passant à travers les systèmes. « Les puces sont déjà dotées de capteurs permettant de mesurer la consommation d'énergie, » a déclaré Jay Vincent, Senior Architect, Data Center Technology Innovation, dans le domaine des systèmes haute-densité pour le cloud chez Intel. « Les données récoltées par les puces pourront être traitées par les outils de contrôle de la ventilation et de la climatisation des datacenters. Elles apportent aussi un moyen plus précis pour identifier les points chauds et les zones froides, et effectuer des simulations, pour savoir par exemple où installer de futurs équipements informatiques tout en maintenant un refroidissement optimum, » a t-il déclaré.

Lors de la conférence Datacenter Dynamics, qui se tenait à San Francisco la semaine dernière, Intel a présenté les résultats de tests réalisés avec Future Facilities, un développeur de logiciels CFD (Computational Fluid Dynamics) simulant les flux d'air. « Les tests ont montré que les capteurs intégrés aux puces permettaient aux outils CFD de modéliser plus précisément la manière dont l'air se déplaçait dans le datacenter, mais aussi de prévoir comment l'intégration d'équipements supplémentaires pouvaient affecter la circulation de l'air, » a déclaré Akhil Docca, chef de produit, spécialiste de l'ingénierie chez Future Facilities. « Si la modélisation CFD est faite correctement, on peut vraiment se rapprocher de ce qui se passe in situ. Et puisque l'on peut visualiser les flux d'air, on peut aussi les gérer, » a-t-il ajouté. Le test de conception a été réalisé sur deux racks serveurs placés à l'écart des autres installations. Mais « le prochain test aura lieu à grande échelle, » a-t-il dit.

Une technologie d'anticipation

L'outil CFD recueille des données de température, de débit et de puissance au niveau des serveurs, puis fait une pondération au niveau du rack, et effectue une simulation pour identifier les endroits où l'air froid court-circuite les entrées du serveur, et à quel endroit l'air qui sort retourne éventuellement dans le circuit. « Nous utilisons ces données en temps réel pour voir ce qui se passe à un moment donné, mais aussi pour anticiper sur ce qui pourrait arriver si on installait 300 serveurs de plus demain, » a déclaré Akhil Docca. « Les données pourront être récupérées par d'autres outils de gestion que le logiciel CFD, » a précisé Jay Vincent.

[[page]]

« Intel va autoriser l'intégration de ses capteurs dans les composants qu'il vend à des fabricants de produits «sans marque » l'année prochaine, ». Quant aux fabricants de gros serveurs, à eux de savoir s'ils veulent ou non mettre des capteurs dans leurs équipements. Mais, pour l'instant on ignore si tous souhaitent en intégrer ou non. « Le capteur de données ne sera pas gratuit, » a déclaré le Senior Architect. Intel licencie un outil logiciel appelé Node Manager, pour contrôler la consommation électrique aux niveaux de la boîte et du rack et assister la reprise sur sinistre en cas de panne de courant.

Des constructeurs intéressés


« Dell met déjà des capteurs de température dans ses serveurs PowerEdge, notamment pour mesurer les températures d'entrée et de sortie, » a déclaré Eric Wilcox, chef de produit chez Dell. L'intégration par Intel de capteurs à sa plateforme processeur pourrait contribuer à réduire les coûts des fabricants, et servir également de base pour établir des normes en matière de mesure de données au niveau des capteurs. Cela devrait faciliter la vie des entreprises qui développent des outils de gestion tiers, et aider les clients à gérer les serveurs de marques multiples. « Nous sommes conscients de la valeur qu'apporte l'offre d'Intel et nous envisageons de la faire connaître aux clients, » a déclaré Eric Wilcox.

HP a aussi mis des capteurs de température dans ses serveurs ProLiant - 32 d'entre eux, selon Michael Kendall, Group Manager chez HP. Ceux-ci récupèrent les données pour les transmettre aux outils de gestion du serveur, qui en retour effectue certaines tâches, comme modifier la vitesse du ventilateur pour atteindre la température nécessaire. Les données sont également exploitables par les produits de Nlyte Software, qui vend des solutions de gestion des infrastructures de data center (DCIM - Data Center Infrastructure Management), via un partenariat. « Les travaux d'Intel pourraient permettre aux systèmes d'HP de gérer davantage de données qu'ils ne le peuvent, » a estimé Michael Kendall.

Un besoin d'éducation du marché

Un autre défi consiste à informer les clients sur les technologies existantes. « La plupart des clients ne connaissent probablement pas tous les outils déjà à leur disposition, » a déclaré Eric Wilcox. Pour que les capteurs jouent pleinement leur rôle, les responsables informatiques et le personnel chargé de gérer les installations devront travailler plus étroitement ensemble. L'objectif ultime de ce projet, à l'instar d'un projet similaire mené l'an dernier par le Lawrence Berkeley National Labs, est de connecter directement l'équipement informatique aux systèmes d'alimentation et de refroidissement, de manière à ajuster automatiquement l'offre à la demande. « Nous allons offrir les moyens d'agir de manière plus pertinente, » a déclaré Jay Vincent, « mais il faut que ceux qui sont concernés en tire les avantages, sinon rien ne changera. »

(...)

Les 10 documents suivants >