Flux RSS

108538 documents trouvés, affichage des résultats 1501 à 1510.
< Les 10 documents précédents | Les 10 documents suivants > |
(30/11/2011 12:34:29)
HP met un peu d'Autonomy dans son appliance de dédup StoreOnce B6200
À l'occasion de son événement Discover 2011 à Vienne, Dave Scott, l'ancien CEO de 3Par rachetée par HP l'an dernier, est monté sur scène pour présenter les dernières offres de stockage du constructeur. Il est en effet désormais en charge de cette activité chez HP.
Dave Scott a donc dévoilé la StoreOnce B6200, une appliance de déduplication de classe entreprise capable de stocker de 48 à 768 To dans un seul châssis. Cette solution de sauvegarde est la première utilisation de HP du logiciel d'Autonomy. David Scott a présenté son système comme un équipement de déduplication de seconde génération. « La question n'est pas seulement de savoir en combien de temps pouvez-vous sauvegarder vos données, mais également de connaître le temps nécessaire pour une restauration a souligné l'américain. Ce dernier annonce une vitesse de restauration de 28 To par heure ! L'appliance B6200 est le premier équipement du constructeur à intégrer un logiciel d'Autonomy, que HP a acquis pour 10,3 milliards de dollars en octobre dernier.
IDOL également présent dans l'appliance de dédup
Dave Scott a expliqué que le B6200 utilise le logiciel IDOL (Intelligent Autonomy Operating Layer données) d'Autonomy pour recueillir des données indexées à partir de plusieurs noeuds pour les stocker dans une structure propriétaire optimisée pour le traitement rapide et la récupération de données. L'appliance StoreOnce B6200 arrive à partir de 48 To dans un noeud sans unité d'extension, et jusqu'à 768 To en pleine charge en configuration quatre noeuds. Selon le constructeur, elle offre un taux de déduplication de 20:1. La déduplication des données varie toutefois selon les applications. Un responsable de HP nous a ainsi confié que si dans certains scénarios on peut atteindre des taux de 40:1, en moyenne on plafonne à 20:01, mais que parfois il est difficile de dépasser 8:1 ou 5:1.
La solution StoreOnce B6200 permet de récupérer des données un peu partout dans l'entreprise - à partir de sites distants vers un datacenter de base - le tout administrer à partir d'une console unique. Cette appliance utilise également le logiciel Peer Motion de HP, issu du rachat de 3Par. Peer Motion permet aux applications et aux données d'être déplacées entre les systèmes de stockage HP ainsi que les solutions de ses filiales : 3Par et LeftHand.
Un NAS redondant
En complément de cette annonce, Dave Scott a également présenté le X5000 Network Storage G2, une plate-forme NAS reposant sur Windows Storage Server 2008, et capable de stocker jusqu'à 32 To dans un rack 3U avec des disques 2,5 et 3,5 pouces. Le X5000, qui gère les protocoles NFS et CIFS se destine au marché milieu de gamme avec comme concurrent désigné le FAS 3020 de NetApp.
Cette offre NAS repose sur l'architecture serveur lame déjà utilisée sur le système dédié à Exchange, l'E5000 annoncé un peu plus tôt cette année. Le système X5000 utilise des contrôleurs actif-actif, ce qui signifie si l'un s'interrompt, l'autre continue de fonctionner et aucune donnée n'est perdue. Une seule unité peut supporter jusqu'à 10 000 utilisateurs, selon HP. Ce NAS arrive en standard avec un système anti-virus, la réplication, la déduplication et le cryptage des données.
L'iPhone 5 et l'iPad 3 s'annoncent dans la beta d'iOS 5.1
Apple a livré aux développeurs une version beta d'iOS 5.1. En creusant un peu le système d'exploitation mobile, certains ont découvert des références aux prochains terminaux de la firme de Cupertino. Ainsi, Filippo Bigarella, dans un tweet, montre une image du code où est écrit iPhone 5.1, iPad 3.2 et 3.3. Sur cette dernière distinction relative à la tablette d'Apple, les spéculations misent sur la disponibilité d'un iPad 3 compatible avec le réseau téléphonique CDMA de l'opérateur américain Sprint. Ces différentes références montrent qu'Apple prépare activement la succession de l'iPhone 4 et de l'iPad 2.
Un autre développeur, iH8sn0w, a indiqué sur son compte Twitter, avoir découvert la référence J33 qui pourrait être liée à l'Apple TV. Selon le site Mac 9 to 5 Mac, le boîtier de télévision pourrait accueillir le processeur A5 ainsi qu'une interface Bluetooth 4.0.
Des fonctionnalités qui se dévoilent progressivement
Outre les références dénichées par les développeurs, les évolutions fonctionnelles de la version beta d'iOS 5.1 semblent mineures. Il sera possible de synchroniser les flux iTunes Match (service pour l'instant disponible uniquement aux Etats-Unis) en 3G. Une extension du clavier dans l'application Mail d'iOS a été aussi trouvée. Des évolutions sont prévues aussi sur la géolocalisation et la notification d'une alerte comprenant un élément de localisation géographique (Geofence). Ces éléments ont souvent été pointés du doigt comme la cause de la réduction de l'autonomie des batteries de l'iPhone 4S.
Enfin des développeurs allemands ont suggéré des améliorations de l'assistant vocal Siri qui prendrait en charge la connexion WiFi et Bluetooth. Des API de dictée sur Siri seraient disponibles pour que les développeurs puissent l'intégrer dans leurs applications, selon le site ArsTechnica. (...)
L'UE veut uniformiser les règles de protection des données
La commissaire européenne en charge de la justice Viviane Reding a déclaré que les autorités de protection des données dans l'Union Européenne devaient avoir davantage de pouvoirs pour faire appliquer les règles de confidentialité dans les 27 Etats membres. Dans un discours prononcé à la Chambre de commerce américaine auprès de l'Union européenne, elle a indiqué que les entreprises qui opéraient dans plusieurs États membres étaient actuellement contraintes de se conformer à 27 interprétations différentes de la législation sur la vie privée. Elle a ajouté que le fardeau administratif associé à cette fragmentation coûtait aux entreprises une somme estimée à 2,3 milliards d'euros par an.
«Les entreprises ont besoin d'un guichet unique quand il s'agit de questions sur la protection des données, et d'une loi et d'une seule autorité de protection des données pour chaque entreprise ; celle de l'État membre dans lequel elles ont leur siège social », a t-elle estimé. Les déclarations de Viviane Reding interviennent alors que la Commission européenne se prépare à réformer la directive de 1995 relative à la protection des données afin d'aborder les nouvelles questions soulevées par la publicité en ligne, les réseaux sociaux et le cloud computing. Cela aura un effet majeur sur la façon dont les questions de confidentialité des données sont traitées dans l'Union européenne et dans d'autres pays.
Publication d'une directive en février 2012
La directive comportera des mesures pour empêcher les réseaux sociaux tels que Facebook d'être trop indiscrets vis à vis de leurs membres en rassemblant des informations sur leurs goûts, leurs intérêts, leurs opinions politiques et leurs convictions religieuses, afin de procéder à des publicités ciblées. Les entreprises devront informer les usagers du type des données les concernant qui ont été collectées, à quelles fins, et comment elle sont stockées.
Les déclarations de Viviane Reding succèdent aux appels de l'Industry Coalition for Data Protection (ICDP) qui souhaite établir un cadre cohérent et harmonisé pour la protection des données dans l'UE. L'ICDP, qui rassemble onze associations de l'industrie, y compris la Business Software Alliance et DigitalEurope, estime que cette approche permettra de préserver le droit fondamental des citoyens sur leur vie privée.
«La révision des règles de protection des données dans l'UE devrait renforcer l'harmonisation et la sécurité juridique et contribuera à établir un marché unique pleinement opérationnel » a considéré John Higgins, directeur général de DigitalEurope qui s'exprimait au nom de l'ICDP. Il a ajouté que, pour stimuler l'innovation et permettre à l'UE de respecter les promesses en termes de croissance et d'emploi, l'Europe devait encourager les entreprises à concourir sur la scène mondiale en rationalisant et en simplifiant les règles internationales de transfert de données.
La nouvelle directive sur la protection des données devrait être publiée en février 2012. Elle pourra également inclure des dispositions plus strictes, telles que des sanctions pénales, et la possibilité pour des groupes d'utilisateurs d'intenter des procès.
(...)
La Convention ITSMF 2011 réfléchit sur la qualité des services IT
Le 29 novembre 2011, l'ITSMF (IT Service Management Forum) a réuni sa convention annuelle 2011, la neuvième, au CNIT. Sur 1200 inscrits, plus de 1000 participants se sont rendus aux sessions plénières comme aux 48 ateliers de témoignages d'entreprises. Visant au partage des bonnes pratiques (au-delà du seul référentiel ITIL), l'association a placé cette année son événement sous le signe de l'IT pour les services.
Or faire de la DSI une entité de services au sens plein du mot n'est pas si évident que cela, sans même aller jusqu'au stade de centre de service partagé (CSP). Une telle entité doit en effet disposer d'un véritable catalogue qui caractérise son offre, produire la dite offre, la piloter dans le temps et enfin disposer des ressources -notamment humaines- pour y parvenir. Les ateliers de cette conférence se sont répartis entre ces quatre axes auxquels est venu s'ajouter un cinquième : l'échange utilisateurs/DSI sur la définition du service.
Le CSP, une idée qui n'est pas sans risque
Ancien DSI d'Alstom, aujourd'hui retraité actif, Jean-Pierre Dehez est ainsi longuement intervenu sur une question simple : un CSP IT est-il une bonne idée ? Pour que l'on puisse parler de CSP, rappelons qu'il faut que le service soit une entité autonome délivrant un service défini à un grand nombre d'entités tierces dans son groupe. Le CSP mutualise et industrialise afin de délivrer un service d'une qualité mesurable en fonction de contrats passés avec des « clients » internes. La démarche vise en général à fiabiliser et baisser les coûts des systèmes d'information.
Or les risques sont importants. Il faut d'abord bien comprendre que l'industrialisation s'oppose à l'agilité. Jean-Pierre Dehez a donc insisté sur la nécessité de placer le curseur au bon endroit entre ces deux pôles irréconciliables. Ce placement de curseur doit s'accompagner d'une parfaite transparence entre DSI et métiers, notamment au niveau des coûts. En effet, plus la qualité de service exigée augmente, plus les coûts explosent. La contractualisation est aussi un outil qui apporte son lot de rigidité. Il y aussi des risques pour la DSI elle-même. Isolée en « village gaulois », elle risque de se déconnecter des entités métier et, surtout, de se démotiver en s'identifiant comme « sur le point d'être externalisée ». Sans oublier que les métiers peuvent parfois devenir très durs avec un « fournisseur interne », plus qu'avec un extérieur. Une relation « maître-esclave » démotive bien sûr les équipes.
[[page]]
La création d'un CSP perturbe donc les modes de fonctionnement autant au sein du CSP que dans ses entités « clientes ». Pour Jean-Pierre Dehez, six facteurs clés sont à réunir pour assurer le succès d'un CSP : un sponsoring fort de la DG, une « posture service » de la part des membres de la DSI, un bon usage des meilleures pratiques (référentiels comme ITIL), l'intégration des meilleurs talents, l'optimisation du contrôle de dépenses et la transparence.
Les limites des bonnes pratiques à l'heure du 2.0
Richard Collin, de Grenoble Ecole de Management, est venu rappeler qu'industrialisation et bureaucratisation induites par la mutualisation, la contractualisation et les référentiels en tous genres de bonnes pratiques, n'étaient pas nécessairement plus positifs que négatifs. La hiérarchisation des individus et la parcellisation des tâches, héritées de l'ère industrielle, ne sont plus de mise. Il plaide donc pour un management centré sur la collaboration des individus, une sorte de conversation permanente plus souple et réactive que des cahiers des charges. Cela implique de prendre acte que le changement est un mode de vie et n'est plus un phénomène qu'il convient de ponctuellement accompagner.
« Le RSE [Réseau Social d'Entreprise] est le PGI de l'entreprise 2.0 » plaide-t-il. Au-delà du seul RSE (interne), il ajoute : « interdire Facebook à des employés durant leurs heures de travail, c'est à la fois interdire cette collaboration dans les cercles relationnels des jeunes générations alors que c'est leur mode de travail, et à terme se priver du jeune et de ses compétences qui va simplement aller voir ailleurs. »
Un réseau de type Renater pour la santé en préparation
Renater est un réseau très haut débit, fonctionnant pour le monde universitaire et celui de la recherche, il leur permet de réaliser des connexions et liaisons entre adhérents et à l'international. Sur ce modèle, un « Renater de la santé » va voir le jour à l'initiative d'acteurs privés. Il devrait relier les centres hospitaliers et les professionnels de santé entre eux et leur permettre d'accéder à des ressources logicielles et applicatives. L'idée est de leur éviter d'investir.
L'initiative est due au comité cloud de Syntec Numérique et à Interop'Santé, l'un et l'autre présidés par Gérard Domas. L'annonce a été faite lors des 3èmes Assises de technologies numériques de santé.
Akamai sur le point de racheter Cotendo
Selon une information publiée par le quotidien israélien The Calcalist, l'entreprise américaine Akamai, spécialisée dans les technologies d'accélération du web (CDN), serait en train de négocier le rachat de Cotendo, sa rivale israélienne.
Fondée en 2008, Cotendo propose également des services permettant d'accélérer l'affichage d'applications web. En trois ans tout juste, elle est parvenue à lever près de 40 millions de dollars, et son chiffre d'affaires actuel se situerait entre 20 et 30 millions de dollars pour 2011. Elle compte aujourd'hui parmi ses clients des géants comme Facebook, Microsoft ou encore Google. Après s'être concentrée avant tout sur les réseaux fixes, au cours des douze derniers mois Cotendo s'est penchée sur de nouveaux développements permettant de fluidifier la diffusion de contenus à travers les réseaux mobiles.
L'an dernier, elle avait été poursuivie en justice par Akamai pour violation de brevet. Pour rappel, Akamai avait déjà acheté Digital Island et Speedera après les avoir poursuivis en justice pour des raisons similaires. Pour racheter son concurrent, la firme américaine serait prête à débourser 300 millions de dollars. Les deux sociétés concernées n'ont pas souhaité commenter la rumeur.
ICTJournal.ch (...)(30/11/2011 10:25:12)HP/Cisco : Une bataille plus stratégique que technique
Désormais ouvertement adversaires sur le marché des infrastructures des centres de données, l'équipementier de réseau Cisco et le géant des serveurs et du stockage HP sont au moins d'accord sur une chose : tout a commencé avec le lent décollage de la virtualisation. « A l'enthousiasme des premières années succède aujourd'hui la volonté d'industrialiser la virtualisation », commente Bruno Dutriaux, chargé du développement partenaires pour la division Datacenter et virtualisation chez Cisco. C'est aussi au nom de l'industrialisation de la virtualisation qu'HP a déterré la hache de guerre : « la crise de 2008 a poussé le marché vers le cloud et donc vers l'industrialisation de l'infrastructure, commente Philippe Rullaud, directeur de la division serveurs x86 pour la France chez HP. Un même constat, mais dont les deux constructeurs tirent des leçons bien différentes.
Les briques pour simplifier l'infrastructure
« C'est une affaire de point d'observation », risque Guy Lefebvre, directeur de la division Stockage chez Adstore, avant de remarquer qu'HP dispose dans son portefeuille des trois grandes briques technologiques de la future informatique en nuage, le réseau, le stockage et les serveurs, alors que Cisco, lui, doit compter sur des partenaires. Chez HP, l'argumentation développée pourrait se résumer à un seul mot, la convergence. Les infrastructures informatiques seraient appelées à devenir des boîtes noires, des briques préconfigurées au fonctionnement le plus standard possible, la complexité étant gérée au plus près des applications, dans les couches logicielles virtualisées. « Pour réaliser cela, il faut simplifier, il faut pouvoir faire évoluer à la même vitesse les composantes serveur, stockage et réseau de l'infrastructure », explique Olivier Petit, chef de produits Blade chez HP. La marque dresse volontiers une vision d'ensemble de l'évolution de l'informatique, et se voit bien jouer le rôle du chef de file. Pour l'équipementier de réseau, la vision de l'avenir s'inspire des problèmes rencontrés par les entreprises au présent. « Plus vous ajoutez de serveurs en lame, plus votre réseau se complexifie. Si l'on veut réussir le cloud, il faut simplifier », explique Bruno Dutriaux.
Des approches techniques difficiles à différencier
Là encore, les deux frères ennemis sont à l'unisson. Et d'un point de vue purement technique, il reste difficile pour un non spécialiste de différencier clairement les deux offres. Virtual Connect de HP et Unified Computing System de Cisco ont en effet de nombreux points communs. Toutes deux utilisent un couple de commutateurs de coeur de réseau qui embarque toute l'intelligence de configuration des connexions LAN et SAN. Toutes deux proposent de concentrer les serveurs lames dans des châssis qui seront connectés aux commutateurs de coeur de réseau. Toutes deux poursuivent le même objectif, éliminer les câbles et apporter plus de flexibilité. Avec son offre Virtual Connect, HP revendique jusqu'à 95% de câbles et d'équipements de réseau en moins dans le data center. De son côté, Cisco explique que son offre Unified Computing System permet de réduire à une petite demi-heure le délai de mise en production d'un nouveau serveur lame, là où la concurrence mettrait plusieurs jours ou semaines.
[[page]]
D'accords sur l'analyse du besoin, d'accords sur les solutions techniques, les frères ennemis du datacenter ne s'affrontent en réalité que sur un seul terrain, leur propre survie dans ce grand chambardement du marché. « Derrière ces grandes manoeuvres, nous assistons à un mouvement de fond visant la simplification des offres, décrypte Yann Plétan d'Altimate. Stockage, réseau ou puissance de calcul, chaque brique des futurs clouds ne représentera plus à terme qu'une seule référence incluant le matériel et le logiciel. L'ère des bundles composés à la main par les revendeurs est en train de s'achever ». Même son de cloche chez les constructeurs qui, là encore, utilisent la même référence à l'industrie automobile pour insister sur ce qui les différentient : « Hier, un constructeur assemblait dans son atelier toutes les pièces de chaque véhicule, rappelle Bruno Dutriaux. Aujourd'hui, il fait appel à des ensembliers. Il est en train de se passer la même chose dans l'industrie informatique ».
Le réveil d'un vieux démon
A ceci près que dans ce match de titans, la plupart des coups risquent de s'échanger en dessous de la ceinture. « HP couvre déjà la totalité de l'offre alors que Cisco doit encore convaincre sur ce point », remarque Guy Lefebvre. Conscient des enjeux, HP pousse son avantage. Dans l'argumentation commerciale qu'il destine à ses partenaires, il n'hésite pas à enfoncer le clou et à insister sur le caractère disparate, lourd, peu intégré, de l'offre concurrente. La convergence, chez HP, se raconte en quelques chiffres : 2 composants au coeur de l'architecture cloud d'HP contre une trentaine requis par l'offre concurrente, et 95% de câbles en moins. Mais par rapport à quoi exactement ? A force de vouloir convaincre, le géant risque de finir par réveiller une inquiétude aussi vieille que l'informatique, celle du monopole absolu. Pour aussi séduisant et pratique qu'il soit, le « one stop shopping » ou interlocuteur unique proposé par HP laisse toujours le sentiment d'avoir perdu une certaine liberté de choix. Et cela d'autant plus que, d'annonce en annonce, le géant de Palo Alto confirme son intention de capter un à un tous les marchés de ses concurrents. Dernier en date, le 23 novembre, le marché de la consolidation des applications Unix sur des infrastructures blades x86. En face, chaque mouvement du géant rapproche des ténors de l'informatique qui n'auraient pas imaginé s'allier auparavant. « Il faut regarder au-delà de cette bataille d'acteurs pour voir où se dirige vraiment le marché, tempère Yann Plétan d'Altimate. Si on fait cela, on se rend compte que ce n'est pas seulement l'offre des constructeurs qui évolue, mais que nos métiers sont aussi en train de changer en conséquence ».
Services à la personne : un amendement inquiète les professionnels de l'assistance informatique
Quand l'Etat cherche à réaliser des économies, il passe tous les systèmes d'aides à la moulinette. C'est ainsi, qu'au détour d'un amendement (à la Loi de Finances rectificative), une série d'avantages fiscaux liés aux services à domicile sont menacés. Des avantages nés de la loi Borloo du 26 juillet 2005 (qui accorde 50% de réduction d'impôt sur les sommes engagées). Parmi eux, l'assistance informatique à domicile.
Le Syntec Numérique s'est étranglé à la lecture de l'amendement. Le sujet lui est d'autant plus sensible qu'il accueille désormais les professionnels de ce secteur. Gianbeppi Fortis, Président du directoire de Solutions 30, est devenu président de la récente commission : « services à la personne ». Elle estime représenter près de 20 000 emplois, « au mois de février dernier, nous avons recensé 6 346 organismes agréés Loi Borloo en services informatiques, ce qui représente 15 à 20 000 emplois » note Gianbeppi Fortis.
Un impact sur l'emploi dans un secteur composé de TPE
Si l'amendement est adopté, le risque est clair. D'un côté, l'Etat économise, peut-être 100 millions d'euros, mais en face, le secteur, composé de TPE risque de débaucher. Les particuliers, sans possibilité de déduction, mais toujours avec leurs problèmes de dépannage, d'assistance et de formation, se tourneraient alors vers les amis ou le travail au noir. L'Etat perdrait d'un côté (pas de TVA ou de charges sociales réglées par les TPE du secteur) ce qu'il penserait gagner de l'autre. « Ce serait casser un secteur, même si nous savons les efforts financiers que doit faire le pays » analyse Gianbeppi Fortis. « Il y a un besoin d'assistance à domicile. On ne le supprimera pas ».
La commission services à la personne de Syntec Numérique travaille d'ailleurs sur deux sujets, le maintien de la loi Borloo et son élargissement à d'autres sujets que l'informatique. Les particuliers ont, ou auront, d'autres problèmes d'assistance à domicile liés aux technologies.
L'amendement passera en séance publique ce mercredi (si le calendrier parlementaire est respecté). Après, la navette parlementaire fera son office, si l'adoption est effective, l'amendement entrerait en vigueur au 1er janvier prochain.
HP combine Autonomy et Vertica pour traiter toutes les données
Hewlett-Packard a rapidement mis à profit ses récentes acquisitions, Vertica racheté en mars dernier et Autonomy en octobre, en rassemblant ces deux logiciels dans une seule solution baptisée Next Generation Information Platform. Avec cette offre disponible fin janvier, les utilisateurs pourront rechercher et analyser des données structurées et non structurées, a expliqué Mike Lynch, ancien CEO d'Autonomy et désormais en charge de l'entité Information Optimization Business Solutions chez HP, lors de l'événement Discover 2011 à Vienne, un rendez-vous qui mêle infrastructures et solutions logicielles.
La plate-forme Vertica Analytics est un logiciel dédié au stockage et à l'analyse de très grandes quantités de données structurées, ou de données qui ont été stockées dans une base de données relationnelle. La solution Autonomy IDOL (Intelligent Data Operating couche) peut quant à elle indexer les données non structurées au sein d'une entreprise, et fournir aux utilisateurs une interface de recherche.
IDOL arrive dans sa version 10
HP propose aujourd'hui une mise à jour de la solution d'Autonomy, IDOL 10, optimisée pour les plates-formes serveurs maison Proliant, et qui inclut un ensemble de liens qui lui permettent de s'intégrer plus facilement avec Vertica. IDOL, dans sa version 10, sera disponible le 1er décembre, et offrira aux utilisateurs la possibilité de travailler avec des données structurées stockées dans la base de données Vertica. Si la force d'Autonomy repose sur ses capacités de traitement de données texte, audio et vidéo, Vertica apporte en sus les ressources d'une base de données en colonnes et des capacités analytiques.
L'interface de recherche unifiée pourrait se montrer particulièrement utile pour afficher dans un seul flux une synthèse reposant sur des données structurées et non structurées. Dans les entreprises, ces informations sont généralement traitées par des systèmes distincts. Par exemple, les informations issues de réseaux sociaux tels que Twitter, qui sont généralement capturées en tant que données non structurées, pourraient être explorées en utilisant les fonctionnalités graphiques et analytiques de Vertica. Les flux vidéo et audio qui peuvent être tous deux ingérés par IDOL, pourraient être couplés avec les données liées à des événements historiques stockés dans Vertica pour fournir un suivi en temps réel. À titre d'exemple, une banque pourrait suivre une conversation téléphonique avec un client qui demande un crédit et certains mots clefs analysés par Autonomy pourraient déclencher une alerte dans Vertica. Si lors de cette conversation, l'appelant laisse échapper quelque chose qui pourrait indiquer un risque élevé, la société de crédit pourrait être immédiatement alertée par la fonction d'analyse de Vertica, nous a expliqué un responsable de HP.
< Les 10 documents précédents | Les 10 documents suivants > |