Flux RSS

Infrastructure serveur

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

2924 documents trouvés, affichage des résultats 1241 à 1250.

< Les 10 documents précédentsLes 10 documents suivants >


(27/01/2010 17:13:37)

L'AFNIC améliore les temps de réponse des sites en .fr

Depuis plusieurs années, l'AFNIC utilise la technologie anycast, qui permet d'augmenter les performances et la sécurité des infrastructures DNS. Elle améliore en particulier, au fur et à mesure de l'extension de la couverture géographique, la qualité du service DNS en terme de temps de réponse et de solidité. En multipliant les serveurs, elle offre en effet une meilleure résistance aux attaques par saturation. Tout en maintenant une couverture mondiale avec près de 60 noeuds, l'AFNIC a placé de nouveaux serveurs DNS à plusieurs endroits en France et en Europe, notamment Lyon qui est bien placé d'un point de vue réseau car proche de la Suisse et de l'Italie. C'est ainsi que depuis le 4 décembre dernier, l'AFNIC dispose d'un cloud anycast sur les infrastructures de Rézopole/Lyonix, le GIX de Lyon. Ce nuage entièrement géré par l'AFNIC couvre aussi La Réunion et prochainement d'autres villes comme Bruxelles et Paris. L'objectif est double : - acquérir la maîtrise de cette technologie afin de pouvoir ouvrir de nouveaux sites en complément de ceux gérés actuellement par ses prestataires. - déployer les infrastructures DNS afin d'augmenter leur densité au plus près des utilisateurs sur le territoire français. (...)

(27/01/2010 17:07:10)

HP annonce des offres globales sécurité

Les services sécurité proposés par HP «  concernent les applications, la continuité de l'activité, les contenus, l'intégrité des données, les centres de calcul, les terminaux, les réseaux, la gestion des identités et le contrôle d'accès, la gestion du risque et la sécurité opérationnelle, » comme le détaille HP dans son communiqué. Selon la compagnie de Palo Alto, « ce vaste portefeuille de services doit permettre aux entreprises et aux administrations de mettre en place une stratégie de sécurité complète afin de réduire l'exposition de leurs infrastructures aux risques ». Ainsi que l'a déclaré Chris Whitener, en charge de la stratégie du programme HP Secure Advantage « cette offre intègre les domaines clé de l'infrastructure technologique, depuis les postes de travail et les imprimantes jusqu'au datacenter et au cloud. Cela concerne aussi bien le conseil que les services gérés en interne et l'externalisation,» ajoutant que « les produits tiers inclus dans le package seraient pré-testés afin de garantir leur compatibilité et leur intégration. » HP veut désormais proposer un point d'entrée unique pour de nombreux besoins de sécurité, aidant ainsi les entreprises à réduire complexité, risques, et coûts. Une offre sécurité packagée De fait, la gamme de services « HP Security, Compliance and Continuity Services » se présente comme un «modèle de référence commun» mis à la disposition des 10 000 professionnels de la sécurité de HP et des consultants répartis dans le monde (depuis l'acquisition de EDS en août 2008). Bien que la marque EDS, acquise pour 13,9 milliards de dollars, n'est plus utilisée officiellement, elle a transformé HP en acteur majeur des services d'entreprise et d'externalisation, avec IBM comme seul concurrent. «Aujourd'hui, nous avons des milliers de clients à la fois HP et EDS dans le secteur public, ce qui n'était pas le cas auparavant», souligne Chris Whitener. « En proposant des offres de sécurité en « groupes de services et en catégories bien identifiables, » dit-il, « l'objectif de HP, transformé depuis l'intégration de EDS, est de rendre l'évaluation des besoins et l'estimation du coût des projets aussi simple que possible pour les clients. » [[page]] La sécurité et la conformité figurent parmi les principales préoccupations des entreprises, que celles-ci soient portées par des menaces ou par la pression réglementaire. Le "Cloud Computing Security Assessment» a été mis en place pour « aider les clients à comprendre quelles transformations ils doivent réaliser pour parvenir jusqu'au cloud" explique Chris Whitener. Cela les conduits à examiner dans quelle mesure les applications qu'ils utilisent dans leurs services, peuvent encore fonctionner de manière optimale dans un environnement cloud, ou encore de s'interroger sur les questions posées par la violation des règles relatives à la vie privée ou à la confidentialité des données, ou bien de prendre en compte les exigences de sécurité dans le domaine du paiement par carte bancaire, par exemple. L'accès non autorisé à certaines informations peut en effet conduire à des infractions qui ont un coût pour l'entreprise et peut engendrer des pertes commerciales. Par exemple, les solutions intégrées aux environnements d'impression - HP Access Control Printing Solution Suite et HP Scanjet Enterprise 7000n Document Management Workstation Series - permettent de réduire ces risques à l'aide de fonctions d'administration avancées. Des solutions adaptées à des failles bien ciblées Le « HP Enterprise Secure Key Manager » est là pour centraliser et renforcer la sécurisation des données, afin de limiter les coûts liés au risque de vol ou de perte d'informations sensibles. Cette solution dirige les clients vers des politiques de sécurité et fournit une administration cohérente et unifiée des clés de chiffrement sur l'ensemble de l'infrastructure informatique. "Application Security Center of Excellence Services" vient quant à elle empêcher les attaques ciblées sur des applications web. Elle aide aussi les clients à définir une stratégie rapide en fonction des risques commerciaux, mais les conseille aussi sur la technologie adéquate à utiliser. Enfin, une offre "SAS Project Services for Application Security Center" prend en charge la mise en oeuvre de ces initiatives de sécurité dans une configuration entretenue et gérée par HP. (...)

(26/01/2010 17:36:57)

Un zeste de virtualisation pour assouplir l'usage d'un supercalculateur Red Storm

Financé par les laboratoires Sandia, la US National Science Foundation, et réalisé en collaboration avec des chercheurs de Northwestern University d'Evanston, Illinois, et de l'Université du Nouveau-Mexique, ce projet a pour but « de créer avec les machines virtuelles un environnement plus souple pour les utilisateurs de super ordinateurs, sans sacrifier les performances ni l'évolutivité, »  comme l'a déclaré Kevin Pedretti, le chercheur qui dirige le projet chez Sandia. Ce n'est pas la première fois que Sandia teste la virtualisation de supercalculateur. L'été dernier, deux chercheurs de Sandia ont étudié l'utilisation de l'hyperviseur Linux Lguest pour lancer 1 million de noeuds sur un autre supercalculateur de Sandia, afin de reproduire un botnet massif, pour affiner certaines recherches. Mais jusqu'à présent, le supercomputing ne s'intéressait guère à la virtualisation. Selon Kevin Pedretti, il s'agirait même du premier essai systématique de virtualisation pour les plates-formes HPC (calcul haute performance). « La communauté HPC, dans sa sagesse très conventionnelle, jugeait le coût de la virtualisation trop important par rapport à son utilité», a convenu Kevin Pedretti, dans une interview par email. « Nous espérons montrer qu'il est possible d'obtenir des coûts raisonnables avec une machine virtuelle pour des applications scientifiques de toute nature, y compris celles nécessitant une exécution à grande échelle ». Kevin Pedretti soutient que la virtualisation pourrait s'avérer précieuse pour les chercheurs souhaitant faire des simulations à grande échelle ou des calculs intensifs, car ils ne seraient plus tenus d'utiliser uniquement les applications s'exécutant sur les systèmes des super ordinateurs. Les tests ont montré que les programmes virtualisés fonctionnaient à 95 pour cent de la vitesse du calculateur. [[page]] Pour réaliser ces essais, les chercheurs ont obtenu 12 heures de temps dédiées sur le super calculateur Red Storm de Sandia (248 Tflops). Construit sur une base Cray XT4 tournant sous Linux, Red Storm, classé 17ème supercalculateur le plus puissant du monde par Top500.org, est doté de 12 960 processeurs de type AMD Opteron (6720 double coeurs et 6240 quadri coeurs soit un total de 38 400 coeurs). Le système a été utilisé pour réaliser un calcul de 204 TFlops (mille milliards d'opérations en virgule flottante par seconde). Ici, les tests de virtualisation effectués sur les 6 240 noeuds de calcul quadri coeurs, ont consisté à faire tourner les applications en modes réels et virtuels. Le test de référence a été réalisé dans l'environnement Red Storm natif, lequel utilise un système d'exploitation allégé, Catamount Lightweight Kernel (LWK). Pour effectuer le test virtuel, les chercheurs ont démarré leur propre version de LWK - en fait la prochaine génération du système Catamount , prénommée Kitten - sur Red Storm. Pour exécuter la machine virtuelle, Kitten a été auparavant intégré à Palacios, la machine virtuelle développée par la Northwestern University, et l'Université du Nouveau-Mexique. Les machines virtuelles ont ensuite booté sur Catamount comme OS invités. Les applications de test ont été ensuite lancées depuis l'outil de démarrage des applications inclus dans Red Storm, conformément au protocole standard. « Du point de vue de l'utilisateur, il n'y a pas de différence visible par rapport à l'environnement logiciel habituel de Red Storm, » a indiqué Pedretti. Différents types de programmes ont été testés, y compris de simples opérations d'analyse comparative et deux applications opérationnelles, le code de simulation CTH propre à Sandia et un logiciel de simulation hydrodynamique, SAIC Adaptive Grid Eulerian (SAGE). Les programmes ont été progressivement exécutés sur deux et jusqu'à 6 240 noeuds, en fonction du programme. Les chercheurs ont décidé de tester uniquement la solution de virtualisation développée pour les environnements de calcul HPC parce que les logiciels de virtualisation ordinaire, tel que Xen, sont plus orientés vers la consolidation des serveurs plutôt que vers le calcul informatique à haute performance. L'utilisation du logiciel HPC permet aux chercheurs d'affiner leurs réglages à un degré que ne permettraient pas les hyperviseurs ordinaires. (...)

(26/01/2010 16:25:25)

VMWare, NetApp et Cisco font support commun pour les clouds privés

C'est le signe des marchés pas encore matures, quand les standards ne sont pas encore arrêtés : on noue des alliances pour offrir des solutions intégrées. Sonnant tocsin, hautbois et musettes, VMWare, NetApp et Cisco avaient ainsi prévenu qu'ils présenteraient ce mardi une solution commune, avec le slogan prometteur « imagine virtually anything ». Au final, si les mots-clés virtualisation, cloud et consolidation étaient bien au rendez-vous, les trois acteurs n'ont montré aucune nouveauté technique, mais une façon d'intégrer leurs offres validée par un schéma de référence technique, et bénéficiant d'un support commun. VMWare et NetApp proposaient déjà ce support commun, NetApp revendant l'offre de virtualisation de la filiale d'EMC. Cisco s'est joint aux deux compères, en insérant entre les deux sa toute récente offre serveurs (Unified computing system, UCS) et ses commutateurs Nexus. Si bien que les trois acteurs sont à même de proposer un système reproduisant, à des fins privées, le fonctionnement d'un cloud : tout y est mutualisé, mais aussi compartimenté, grâce à la virtualisation, depuis les applications jusqu'aux domaines de stockage. Sur le papier, c'est la fin des silos ; le département informatique peut gérer une ressource globale, et refacturer les services métier en fonction de leur utilisation de cette ressource. Dans la pratique, rien n'est jamais aussi simple. En outre, Cisco est un nouvel entrant sur le marché des serveurs, et les certifications ainsi que le support commun ne sont évidemment valables que pour cette combinaison. Autre élément perturbant, les patrons de Cisco et VMWare avaient fait en novembre dernier une annonce similaire, cette fois en association avec EMC et Intel. Ils vantaient alors vBlock, technique de modules préconfigurés pour réaliser des clouds privés, qui serait commercialisée par une société commune, Acadia. A écouter la justification quelque peu embrouillée de NetApp, l'annonce d'aujourd'hui pourrait être davantage tournée vers les petits intégrateurs et des clients nécessitant des configurations éventuellement modestes. (...)

(26/01/2010 15:17:02)

Oracle et Sun peaufinent le lancement de leur cloud

Après avoir reçu l'approbation de la Commission européenne pour sa prise de contrôle de Sun la semaine dernière, Oracle n'a pas tardé à annoncer un point presse pour le mercredi 27 janvier à 9h00, au cours duquel Larry Ellison exposera son plan d'intégration. Andrew Milroy, analyste chez Frost & Sullivan, a déclaré que la fusion entre les deux géants de l'industrie permettra de consolider leurs services, mais qu'elle est également susceptible de les orienter vers la fourniture de Cloud privé. Un programme engagé chez Sun bien avant le rachat de la société par Oracle. « Le développement des nombreuses solutions de virtualisation a mis à mal les ventes de licences Oracle et Sun a été pris de cours sur le marché de la virtualisation et des serveurs», a déclaré Andrew Milroy. « Oracle et Sun vont donner naissance à un fournisseur de solutions qui fonctionnera un peu comme IBM ou HP. Les clients de Sun vont avoir affaire à un fournisseur tout à fait différent, Oracle, lequel disposera d'un éventail de solutions qui va des « applications jusqu'au disque » comme l'a déclaré Larry Ellison. » Les clients de Sun rassurés par les prochaines annonces Andrew Milroy prévoie que l'arrivée de Sun dans le giron 'Oracle donnera plus d'ampleur à son développement. « Oracle et Sun veulent offrir le cloud privé à des organisations et entrer dans le marché du cloud en adossant les applications Oracle sur le kit Sun », pense -t-il. « Nombre d'entreprises se dirigent vers des solutions de cloud privé. C'est ce secteur qu'Oracle et Sun sont en train de viser. Et je crois aussi qu'ils ont une meilleure opportunité d'y parvenir ensemble. » Matt Oostveen, analyste chez IDC, a déclaré que « si Sun va probablement accueillir la nouvelle de la Commission européenne avec «dégoût», les clients de Sun qui sont liés à la plate-forme, devraient, dans l'ensemble, se réjouir. Même si les questions sur l'avenir des produits haut de gamme de Sun, sur Sparc et et x86, demeurent». Les annonces récentes d'Oracle faisant savoir qu'elle maintiendra une base Sun devrait contribuer à alléger les tensions. (...)

(25/01/2010 16:51:54)

Selon une étude Computacenter, la virtualisation reste difficile à amortir rapidement

Les entreprises cherchant à introduire une solution de virtualisation dans leur système d'information devraient considérer avec plus d'attention le temps nécessaire à mise en oeuvre de leur projet, car le retour sur investissement risque de tarder. C'est en tout cas le point de vue de Computacenter, qui a interrogé 130 décideurs informatiques sur leur expérience en environnements virtualisés. Parmi l'ensemble des entreprises concernées par la mise en oeuvre de projets de virtualisation de postes de travail et d'applications (VDI), seules 4% peuvent se prévaloir d'un retour sur investissement correspondant à leur attente. Pour celles concernées par la virtualisation de serveurs, l'étude montre une situation à peine meilleure, puisque seules 6% estiment avoir atteint les résultats escomptés. L'enquête de Computacenter souligne également la persistance des idées fausses en ce domaine, puisque 83% des personnes interrogées continuent d'affirmer qu'avec la VDI, il leur serait plus facile de gérer les applications de bureau. «Les entreprises doivent être plus réalistes sur les projets de virtualisation», a déclaré Paul Casey, le patron de la plate-forme datacenter chez Computacenter. "Nombre d'entreprises ne réalisent pas le retour sur investissement attendu parce qu'elles travaillent principalement avec les outils de supervision propres au vendeur qui ne prennent pas toujours en compte a réalité des éléments qui les concernent. Forcément les résultats sont biaisés. » L'autre raison, toujours selon Paul Casey, vient de ce que les clients ne savent pas utiliser ces outils correctement. «Les chiffres les rendent optimistes», a déclaré Paul Casey. "Mais avec les mêmes outils, nous obtenons un chiffre différent. Ainsi, quant le client estime un retour sur investissement à 6 mois, nous sommes à 12. » Comment bien gérer des postes de travail virtualisés ? Andy Goddard, responsable du centre d'expertise postes de travail et travail collaboratif chez Computacenter est d'accord. "Il y a beaucoup de malentendus: certaines personnes y trouvent beaucoup de bénéfices et d'autres aucun. C'est une chose d'introduire la virtualisation sur les postes de travail, c'en est une autre de la gérer." La question des outils n'est pas la seule, précise cependant Paul Casey. «Les organisations doivent adopter une vision à plus long terme des solutions de virtualisation et du retour sur investissement qu'ils peuvent en attendre. Il y a des choses qui ne sont pas facilement mesurables. La philosophie du ROI, essentiellement basée sur des économies de coûts, pose problème. Les avantages réels sont plus flexibles. Estimer le bénéfice de déménager une entreprise de bureaux pouvant accueillir 1000 salariés vers des bureaux pouvant en accueillir 500 n'est pas si facile. " Paul Casey et Andy Goddard conviennent tous deux qu'il est important de regarder au-delà des outils des supervisions. «Nous avons à faire à une panoplie d'outils variés», a déclaré M. Casey. " Sans vouloir avantager un produit par rapport à un autre, je dirais que Athene de Metron est un bon outil en matière de gestion des ressources, et vCommander d'Embotics le mieux adapté au contrôle des coûts des environnements virtuels ». Malgré ces revers, les entreprises ne freinent pas leurs déploiements en terme de consolidation et de virtualisation. Pourtant il y est nécessaire de repenser certaines choses. " Si la demande reste forte sur le marché de la virtualisation, il faut toutefois revoir la gestion et les technologies. La clé serait de repartir de zéro afin de réfléchir sur les plates-formes, la taille et l'échelle des machines virtuelles, et sur la mise en oeuvre des outils de gestion. La manière de faire travailler les équipes doit également être repenser. Dans tous les cas, il est nécessaire d'adopter une vision d'ensemble. » (...)

(25/01/2010 13:45:39)

Les disques peinent à suivre la montée en puissance des serveurs

Du fait de la loi de Moore, la vitesse des processeurs des serveurs a progressé tellement vite qu'ils menacent de faire sombrer les systèmes de stockage, dont l'amélioration est plus lente. Si les disques durs doublent de capacité tous les 18 mois - encore la loi de Moore - l'amélioration de leur vitesse ne suit pas celle du rythme des serveurs. En même temps que la demande d'espace de stockage physique augmente, les serveurs de plus en plus puissants réclament davantage de rapidité dans le transfert des données. "Il y a des cycles technologiques différents qui se chevauchent," a déclaré M. Hu Yoshida, CTO de Hitachi Data Systems, dans un entretien accordé à Network World sur les tendances en matière de stockage de données. "Parfois, les processeurs sont en avance, d'autres fois ce sont les technologies de stockage. Aujourd'hui, la tendance est à l'amélioration des serveurs. Mais la manière dont nous les utilisons aujourd'hui, avec des processeurs multicoeurs, des machines virtuelles, dépasse les capacités techniques des systèmes de stockage." Le SSD, rapide, mais pas durable Parce que les disques SSD sont beaucoup plus rapides que les disques durs rotatifs, il est possible que les premiers remplacent un jour les seconds et deviennent le support principal pour le stockage de données. Sauf que la technologie flash disponible actuellement ne peut dépasser les 100.000 cycles d'écriture. " Les constructeurs cherchent à fabriquer une mémoire flash plus durable, mais la mémoire SSD existante ne peut remplacer les disques durs mécaniques de manière adéquate, " indique M. Yoshida. Précisant que "d'autres technologies de stockage non volatile, comme la PcRAM, actuellement en développement, pourraient au final se révéler plus adaptées. " Le disque à plateau, pas encore obsolète D'autre part, " la mémoire flash, est encore trop coûteuse pour s'imposer comme technologie de remplacement dans les datacenters. " Même si on peut s'attendre à une baisse de prix, M. Yoshida pense qu'elle n'arrivera pas aussi vite que certains veulent le croire. " Les disques à base de mémoire flash ne sont pas produits dans les mêmes quantités que les disques mécaniques et il sera difficile d'éliminer l'écart de prix entre les SSD et les disques durs, " indique t-il. Certaines entreprises ont commencé à utiliser des disques SSD, " 10 à 17 fois plus rapides que les disques durs mécaniques, mais aussi 10 à 20 fois plus chers, " comme l'a fait remarqué M. Yoshida, dans des applications où les disques durs mécaniques sont devenus trop lents. Le disque à rotation " probablement la seule haute technologie encore mécanique, " a indiqué M. Yoshida, même s'il montre des limitations inhérentes à l'architecture employée, va perdurer. Actuellement, les plans de développement concernant l'amélioration de la vitesse de rotation des disques durs s'étalent sur les 10-12 ans à venir. "Il y a un moteur qui tourne et un bras qui doit se déplacer jusqu'à la bonne piste de lecture ou d'écriture. Il y a une vitesse maximum à laquelle on peut faire tourner ce disque. Les limitations inhérentes à cette technologie finiront bien par forcer le passage vers quelque chose de nouveau, " a déclaré M. Yoshida. Mais l'utilisation à large échelle des disques durs mécaniques va se prolonger dans un futur proche. [[page]] Nouvelles stratégies serveurs D'ailleurs, les constructeurs ont déjà adopté plusieurs stratégies pour les rendre plus efficaces. L'une d'elles, le striping, permet de transférer les données dans un pool plus large de périphériques de stockage. Cette répartition dynamique, permet de surdimensionner l'allocation d'espace de stockage pour les serveurs, d'accélérer le provisionnement d'espace disponible sans avoir à augmenter la capacité. Une autre technologie importante consiste à gérer l'allocation de la mémoire cache de manière globale et de permettre à plusieurs processeurs d'accéder à une même cache. " C'est la technologie utilisée dans l'USP V de Hitachi, le DMX d'EMC et le DS8000 d'IBM, " précise M. Yoshida. Des progrès supplémentaires seront nécessaires, en raison de la pression qu'exerce la demande sur les systèmes de stockage. " Regardez les nouveaux processeurs d'Intel et d'AMD, ils atteignent une puissance que nous nous pouvions pas imaginer il y a cinq ans." Outre la puissance brute des processeurs, les serveurs sont aussi dotés de processeurs à coeurs multiples et hébergent plusieurs machines virtuelles, ce qui ralentit potentiellement l'accès aux données. Le défi de la fibre L'adaptation des systèmes de stockage aux nouvelles normes, l'arrivée de la " Fibre channel over Ethernet " (FCoE) notamment, sera un autre défi, explique M. Yoshida. " La bande passante pour le stockage a doublé ", dit-il. " Cette année, nous allons atteindre les 8 Gbit/s de bande passante pour la Fibre Channel. Mais ce sont des vitesses de 10, de 40, et jusqu'à 100 Gbit/s qui se profilent à l'horizon. Les câbles arrivant aux unités de stockage sont aussi beaucoup plus gros. Tout cela va nécessiter l'installation de systèmes de stockage encore plus grands." (...)

(22/01/2010 12:20:23)

Six collectivités locales se regroupent pour attirer des datacenters

Les datacenters sont promis à un fort développement. Les prévisions tablent sur des croissances à deux chiffres des capacités à mettre en oeuvre. « Plusieurs types de projets se rencontrent, nous explique Corentin Cariou du cabinet Regional Partners : les datacenters internes ou mutualisés des grands utilisateurs nationaux comme les banques ou les compagnies d'assurance, et ceux des grands infogéreurs ou des opérateurs télécoms. Les datacenters s'organisent également en sites miroirs, donc se doublent d'un autre site ». Toutefois, ce développement s'est essentiellement porté ces dernières années sur les départements d'Ile-de-France et sur des implantations proches des grands donneurs d'ordre. D'autres territoires pourraient être candidats. Sur cette idée, six collectivités locales, conseillées par le cabinet Regional Partners, se sont regroupées autour du label iterritories : Lyon et son agglomération (agence de développement Aderly), l'agglomération de Caen-la-Mer, celle de Dunkerque, le pays d'Artois (agence de développement Osartis), les départements de l'Yonne et de la Seine-et-Marne. Accueillir des datacenters renforcerait l'attractivité de leurs territoires. Des qualités techniques et administratives Le label iterritories permet de reconnaître des collectivités qui présentent plusieurs caractéristiques. Des qualités techniques : accès réseaux en général, fibre optique, infrastructures de desserte. Des atouts en gestion : aide au montage des dossiers, recherche et financement, solutions foncières et immobilières, bassins d'emplois. Les localisations proposées doivent également se trouver éloignées des zones à risque : inondables, sismiques, avec des conditions climatiques extrêmes. Iterritories parie sur la rencontre entre les besoins exponentiels en traitement de données, qui expliquent les besoins des entreprises et les atouts des collectivités locales en mal d'attractivité. Iterritories, outre son label et son site, participe à des salons comme ItiForums et se rapproche d'organisations spécialisées comme le Crip (Club des responsables d'infrastructures de production), ou le Cesit (Club des exploitants de salles informatiques et télécom). (...)

< Les 10 documents précédentsLes 10 documents suivants >