Flux RSS

Middleware et serveurs d'application

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

541 documents trouvés, affichage des résultats 91 à 100.

< Les 10 documents précédentsLes 10 documents suivants >


(30/08/2010 14:09:21)

Citrix achète VMLogix pour assouplir l'usage d'OpenCloud

Citrix prévoit d'inclure certaines des technologies de VMLogix, lui-même fournisseur en technologies de gestion et d'automatisation de la virtualisation, dans ses prochaines versions gratuites de XenServer. Cela permettra, au sein d'une entreprise, d'offrir des services virtuels sur la base des ressources informatiques existant en interne, de la même manière que cela se fait sur des clouds publics. Les utilisateurs pourront notamment s'abonner à des services en ligne et les utiliser immédiatement, comme le pratiquent généralement les prestataires de cloud public.

L'éditeur de Ft. Lauderdale va également ajouter la technologie VMLogix à sa plate-forme OpenCloud de manière à ce que ses clients, eux-mêmes fournisseurs de clouds publics, puissent offrir des fonctions de type "gestion du cycle de vie" pour l'assurance qualité et la continuité de l'activité. Citrix a également l'intention d'ajouter de nouvelles capacités à OpenCloud permettant aux entreprises clientes de gérer une combinaison de traitements répartis entre leurs clouds publics et privés à partir d'une console de contrôle unique, même s'ils utilisent les services de différents fournisseurs de services en ligne.

Assouplir l'usage du cloud

L'acquisition de VMLogix et les mises à jour d'OpenCloud répondent à d'importants problèmes en matière de cloud computing, comme l'a souligné Wes Wasson, directeur de la stratégie chez Citrix. "Nos clients ne cessent de nous dire qu'ils veulent en priorité profiter de l'économie et de l'élasticité du cloud dans leurs datacenters existants," a-t-il déclaré. "Ensuite, ils demandent de pouvoir disposer de la souplesse nécessaire pour transférer les traitements entre le cloud privé et public, en fonction des besoins, avec des garanties de sécurité et de performance. Enfin, ils veulent pouvoir changer de fournisseur et déménager leurs données facilement."
Pour Wes Wasson, "ces apports faciliteront la mise en place et le partage d'environnements de production à la demande sur les clouds privés et publics, et que la répartition des charges de travail virtuelles en fonction des besoins pourra être effectuée en un clic, cela à travers plusieurs types d'hyperviseur."

Citrix a également réitéré son soutien à OpenStack, le groupe dirigé par Rackspace et la Nasa, qui travaille sur des outils Open Source destinés à faciliter aux entreprises la collaboration avec des fournisseurs de cloud multiples. A la convention VMWorld qui démarre cette semaine à San Francisco, Citrix montrera comment gérer une charge de travail entre plusieurs machines XenServer tournant sur un cloud et des machines virtuelles tournant sur un cloud public qui utilise OpenStack, cela à partir d'une console de contrôle unique.

Enfin, Citrix a indiqué qu'il allait ajouter des capacités de commutation virtuelle à OpenCloud avec vSwitch Open, un commutateur virtuel Open Source qui supporte le protocole OpenFlow. L'idée est de permettre aux fournisseurs de clouds de bâtir facilement des plateformes multi-tenants séparées, c'est-à-dire capable de faire tourner plusieurs comptes clients sur un seul système, tout en proposant des politiques dynamiques.

Crédit photo : Citrix

(...)

(26/08/2010 15:54:35)

Red Hat offre son API cloud comme standard ouvert du marché

"Nous ne voulons pas que Deltacloud soit sous le contrôle d'un vendeur en particulier, Red Hat compris. Si nous voulons accéder à une véritable interopérabilité et à une réelle portabilité, nous avons besoin d'un instrument de contrôle tiers," a déclaré Bryan Che, chef de produits cloud pour Red Hat, au cours d'une webcast pendant laquelle il a tracé la feuille de route de l'entreprise en matière de cloud computing. "Le manque d'interopérabilité entre les différents vendeurs de solutions cloud est l'une des préoccupations majeures des entreprises qui pèse dans leur décision d'adopter ou non le cloud," a souligné Gary Chen, directeur de recherche en logiciels de virtualisation pour l'entreprise chez IDC, lors d'une présentation qui a accompagné l'annonce de Red Hat.

Une ouverture progressive

C'est en septembre 2009 que Red Hat a lancé Deltacloud sous forme d'un ensemble d'API Open Source qui pouvaient être utilisées pour répartir les charges de travail entre différents fournisseurs de services cloud IaaS (Infrastructure-as-a-Service), comme Amazon et Rackspace. Afin de dispatcher la charge de travail entre les différents prestataires de cloud, les clients doivent pouvoir s'appuyer sur "une architecture et une pile compatibles avec le système qu'ils font tourner en interne," a déclaré Paul Cormier, président de Red Hat pour les produits et technologies. Pour encourager les contributions extérieures, Red Hat a cédé le code base de Deltacloud à l'Apache Incubator, un service de dépôts de logiciels qui, par la suite, peuvent éventuellement être supervisés par la Fondation Apache. L'éditeur a également créé le site APIwanted.org, sur lequel des parties tierces peuvent soumettre leurs suggestions pour des API supplémentaires ou signaler les fonctionnalités qu'ils souhaitent voir dans Deltacloud. Red Hat a également affirmé que, à part elle, d'autres entreprises participaient à l'élaboration de Deltacloud, ou l'utilisaient d'une manière ou d'une autre, citant notamment Cisco, Dell, Hewlett-Packard, IBM, Ingres et Intel. Red Hat a également annoncé qu'elle proposerait bientôt une solution de Plateform-as-a-Service construite autour de sa pile logicielle middleware JBoss.

D'autres alternatives pour un cloud ouvert

Mais Red Hat, n'est pas seul à s'être penché sur la question. Un certain nombre de fournisseurs de services cloud cherchent aussi des solutions. En juillet, Rackspace et la NASA ont entamé l'opération OpenStack pour collecter des logiciels Open Source développés pour le cloud computing. Plus tôt cette semaine, Eucalyptus Systems a lancé la version 2.0 de sa plate-forme cloud, qui utilise l'API AWS (Amazon Web Services). La société en a profité pour dire au passage que, en raison de sa popularité, l'AWS était devenu de facto un standard. 

C'est le Cloud Management Working Group, entité du DMTF, l'organisme chargé de superviser des normes comme le CDM (Common Diagnostic Model), DASH (Desktop and Mobile Architecture For System Hardware) et OVF (Open Virtualization Format), qui examinera la proposition de Red Hat en vue de l'adoption de Deltacloud en tant que standard.

(...)

(09/08/2010 16:58:56)

VMforce vise au-delà de Salesforce

Annoncé en avril, le projet VMforce, qui associe VMware et Salesforce.com, se voulait être le « premier cloud d'entreprise pour les développeurs Java ». Même si la technologie ne sera dévoilée que cet automne, via une preview dédiée aux développeurs, Rod Johnson, responsable de la division SpringSource, rachetée par VMware l'an dernier, a laissé filtrer quelques informations sur les usages potentiels durant une interview.

« Les killers applications sur cette plateforme seront celles qui utiliseront des données Salesforce. Elles amélioreront la solution tout en interagissant avec sur les mêmes serveurs sur lesquelles elles ont été développées, et cela donnera des performances impressionnantes » affirme-t-il. « Mais VMforce sera aussi capable de faire tourner des applications Java d'entreprise. Vous pourrez programmer n'importe quelle application sur la plateforme et bénéficier de l'expérience de Salesforce ». En somme, les développeurs pourront à terme créer leurs programmes avec SpringSource et les déposer sur le cloud VMforce, qui intègrera nativement les plateformes mobiles et les outils de collaboration.

Des nuages et des langages

Il ajoute d'ailleurs qu'il a fallu, lors de la conception de ce cloud basé sur la technologie de virtualisation vSphere, mettre en place une interface suffisamment familière pour les développeurs Java et de rendre leurs logiciels compatibles avec le modèle de données Salesforce. Tandis que les clouds du type IaaS (infrastructure-as-a-service) tels que l'EC2 d'Amazon obligent les clients à administrer leurs propres serveurs virtuels, la solution PaaS (platform-as-a-service) comme VMforce rendent ces tâches inutiles. Tout ce qu'il reste à faire aux utilisateurs, c'est coder.

Malgré cela, chaque modèle de cloud a ses avantages. En IaaS, même s'il faut gérer plus de paramètres, tous les modèles de programmation sont soutenus. Avec du PaaS, les applications sont certes plus rapides à mettre en place, mais disposent d'une moindre portabilité, nécessitant d'être conçues selon le langage supporté par le fournisseur. « Notre but a toujours été d'optimiser la portabilité avec Spring, et nous essayons de faire en sorte que les applications Java puissent fonctionner sur différents clouds, hyperviseurs ou même sur les serveurs n'ayant pas été virtualisés », précise Rod Johnson.

Google App Engine : entre concurrence et partenariat

A l'heure actuelle, les principaux acteurs du cloud de type PaaS sont Windows Azure, Google App Engine et Salesforce. Le fondateur de Spring considère à ce propos que Google App Engine est entouré de trop de restrictions concernant ce qu'il est possible de faire avec les applications Java, ce que VMforce devrait selon lui grandement étendre pour coïncider avec les besoins des entreprises. Malgré ces critiques, VMware et Google se sont associés pour que les applications Java créées avec Spring tournent sur le cloud de Google, qui supporte à la fois Java et Python.

Il conclut enfin sur la relative indépendance de SpringSource par rapport à VMware malgré le rachat. « Nous contrôlons en grande partie notre propre destinée, et je suis moi-même très impliqué dans la stratégie globale de VMware ».

(...)

(30/07/2010 16:34:02)

Ne confondez pas SOA et Cloud explique le Gartner

Selon David Mitchell Smith, vice-président de Gartner Research, les entreprises proposant une architecture orientée services (SOA) pour aider à la gestion des services informatiques ne devraient pas imaginer qu'elles seront automatiquement prêtes pour le cloud computing. S'exprimant sur le thème « Quelle réalité pour le cloud ; les SOA, constitutions et logiciels du futur » lors du sommet annuel que Gartner consacre au SOA, celui-ci a expliqué que le problème venait du terme «service» utilisé à la fois pour le cloud et pour le SOA. "Un même mot avec des significations différentes," selon lui. "Dans le monde du SOA nous parlons de services en faisant référence aux logiciels, aux composants actifs et aux objets (éléments techniques), mais dans le monde réel, quand on parle de service, on pense résultats», a-t-il déclaré.

Payer pour des résultats ou pour une technologie ?

Celui-ci a poursuivi son intervention en déclarant : « Les gens vont dire : nous faisons du SOA donc nous sommes prêts pour le cloud. Mais la différence est énorme. Avec le cloud, vous payez pour des résultats, pas pour la technologie. Dans le cloud, l'offre relève de la relation entre le fournisseur de service et le consommateur, et pas entre le prestataire de technologique et le consommateur. « Il a insisté sur le fait que les DSI ne devaient pas imaginer que SOA et cloud étaient équivalents». Cependant, le vice-président de Gartner a reconnu que les deux concepts étaient liés : «le fait de disposer du SOA représente une bonne base pour le cloud». Pour mieux illustrer l'orientation que devait prendre selon lui l'industrie du logiciel, il a déclaré : « Dans le football américain, il faut lancer la balle d'un côté et la rattraper de l'autre. Il est donc important d'être là où l'on pense que la balle va atterrir,» a-t-il dit. «Les questions qui se posent aujourd'hui autour du cloud et du SOA relèvent de la même logique. Si l'on prévoit en fonction des hypothèses actuelles et que l'on veut planifier l'avenir, alors on a besoin de savoir ce que l'avenir sera, et ce n'est pas une mince affaire."

Bien définir le cloud pour mieux l'utiliser

Dans son discours tenu à Sidney, David M. Smith a estimé que l'industrie IT était très conditionnée par la mode. « Nous voulons savoir où nous allons et nous sommes en haut d'une falaise qui s'appelle le cloud. Tout le monde dit vouloir y aller, sans comprendre nécessairement ce que cela signifie,» a-t-il déclaré. «Le cloud computing est sans doute le terme actuel le plus surfait, et il n'est pas bien défini. La moitié du problème consiste déjà à expliquer ce que c'est, et ce n'est ni une technologie ni une architecture, mais une application de l'informatique qui permet par exemple d'offrir à ses clients des services utilisant les technologies de l'Internet. » Selon lui, les gens pourraient penser que le terme cloud computing dit la même chose autrement, mais "c'est plus que cela ». «Le cloud est une question de confiance et si vous n'avez pas confiance dans votre prestataire, mieux vaut ne pas se lancer. À ce titre, le SOA est aussi différent du cloud,» a-t-il ajouté. « La combinaison du cloud, du SOA et d'événements appelant à la participation des individus conduit à des innovations. C'est le cas des tâches collaboratives, des échanges basés sur des événements et des services multi-tenant mais les individus restent au coeur de cette innovation. »

Pourquoi aller vers le SaaS ?

Le vice-président de Gartner a également posé la question des pratiques logicielles et s'est interrogé sur leur pertinence pour l'entreprise. Il a notamment estimé qu'il fallait faire évoluer les mentalités pour transformer l'achat de logiciel en achat de service. « Les gens ne veulent pas vraiment acheter du logiciel. Ils veulent acheter un service qui permet d'obtenir quelque chose, » a-t-il commenté. « Le cloud et les réalités auxquelles doivent faire face les entreprises sont axés davantage sur les résultats, et les investissements doivent représenter de la valeur, et non des coûts. L'avenir du logiciel est loin d'être assuré. Celui-ci n'est pas mort, mais on peut dire qu'il n'est pas en bonne forme. Pas suffisamment en tout cas pour servir de business model à long terme. Ce sont les résultats qui comptent, pas la technologie. »

Illustration : David Mitchell Smith, vice-président de Gartner Research, crédit D.R.

(...)

(30/07/2010 11:29:41)

A l'occasion de l'OSCON, le créateur de Drupal a annoncé la version 7 du CMS

Quand sortira Drupal 7 ?

Dries Buytaert : On ne sait pas encore, mais il ne nous reste plus que 44 bugs critiques à corriger. J'espère que la bêta sortira début août. Quant à la version finale, je pense qu'elle devrait arriver pour septembre ou octobre.



En avril, vous aviez annoncé que cette version serait plus lente que Drupal 6. Pourquoi ?

DB : Nous y avons ajouté beaucoup de fonctionnalités. Vous avez le coeur de Drupal, qui est la plateforme de base, et vous avez des modules complémentaires qui sont eux développés par des membres de la communauté. Nous avons introduits 70 de ces modules dans le coeur du programme, qui s'est donc quelque peu alourdi. Cela a eu pour conséquence de rendre effectivement Drupal un peu plus lent. Le but était de simplifier son utilisation.



Que font ces modules ?

DB : Un des plus populaires s'appelle CCK, pour Content Construction Kit. Il autorise les utilisateurs à personnaliser les types de contenus via leur navigateur. Par exemple, si vous voulez faire un forum, vous pouvez créer une typologie correspondante. Autre élément important, plus Drupal se développe, plus il a de sites importants qui l'adoptent. Nous avons du coup été en mesure de faire quelques changements au niveau de l'architecture pour améliorer l'évolutivité. Par contre, en échange de cette capacité à pouvoir mettre Drupal à l'échelle de grands sites Internet déployés sur différentes machines, la performance sur un serveur unique s'est vue quelque peu amoindrie. Nous nous sommes dits que cet équilibrage en valait malgré tout la peine.

Drupal 7 devrait recoder les API et intégrer une interface repensée pour les utilisateurs non-avancés. 

Lire la suite de l'entretien

(...)

(27/07/2010 10:48:14)

Riverbed virtualise son appliance d'optimisation pour des environnements difficiles

Pour Christian Lorentz, directeur marketing produit pour Riverbed « plusieurs clients nous ont demandé de l'optimisation dans des environnements particuliers comme les plateformes pétrolières, des chantiers temporaires ou des datacenters qui manquent de place ». Fort de constat, le spécialiste de l'optimisation vient de présenter Virtual Steelhead, une version logicielle de l'appliance physique existante. « Cette dernière n'est pas soumise à des contraintes comme les chocs, l'humidité, la pression, à la différence ».

Le responsable indique qu'il s'agit d' « une version complémentaire à l'appliance physique pour des besoins très précis ».  La tarification entre les deux solutions (2885 dollars pour le logiciel et 3400 dollars pour l'appliance) n'est pas très différente pour éviter un effet de substitution. Christian Lorentz indique tout de même que l'avantage de la solution logicielle réside dans la très grande facilité d'évolutivité en fonction des besoins.

Riverbed a annoncé que Virtual Steelhead serait dans un premier temps disponible sur la plateforme vSPhere de VMware, mais des travaux sont en cours, sans d'agenda précis, sur d'autres solutions de virtualisation. Testé auprès de plusieurs clients et dans différents environnements (dont un datacenter virtualisé à 100%), le produit sera disponible à la fin août.

(...)

(21/07/2010 11:01:25)

Trois outils d'automatisation du cloud en test

Le travail réalisé lors de ces tests était de convertir un travail de type « batch » (traitement par lots) en application portée dans le Cloud. Nos confrères américains ont codé une application qui traite les fichiers vidéo par lot, les encode dans un format spécifique (grâce à ffmpeg, qui est une collection de logiciels libres dédiés au traitement de flux audio ou vidéo pour l'enregistrement, la lecture ou la conversion d'un format à un autre) et les diffuse sur différentes instances.  Par ailleurs, la rédaction a testé la montée en puissance des requêtes en faisant fonctionner ffmpeg sur chaque instance. Les trois outils testés ont été capables de réaliser ces tâches, mais chacun d'une façon différente.

Ces trois outils exigent des connaissances en codage et en programmation (Appistry nettement plus que les autres). Savoir comment fonctionne chaque plateforme prend en effet un certain temps. Le plus simple à comprendre est Control Editor, de l'éditeur Tap In, parce que son interface graphique est accessible et ergonomique.

I. Les points forts des trois outils

1. La vue disponible dans Tap In



La vue d'ensemble des processus automatisés est excellente sur l'outil Control Editor de Tap In.

2. Les modèles de Rightscale



Rightscale fournit des modèles de systèmes en grille très puissants, diversifiés et les plus utiles des outils testés.

[[page]]

3. L'évolutivité de Rightscale



En termes de performances, lors des montées en charge, RightScale arrive en tête. Il est suivi de près par Tap In.

4. L'interface web d'Appistry



Appistry propose une interface utilisateur belle et sophistiquée pour un usage en mode web.

[[page]]

5. L'interopérabilité des outils



Appistry et Tap In assurent une très bonne interopérabilité avec les plateformes de clouds publics.

II. Les points faibles des outils

1. Trop de code à programmer



Appistry nécessite un travail de codage trop important.

[[page]]

2. Une compétence forte en codage et scripting



Tous les produits testés nécessitent des bases de codage en Ruby ou dans d'autres langages.

3. Des configurations complexes



L'outil Rightgrid de RIghtScale demande un travail de configuration complexe.

[[page]]

4. L'adaptabilité



RightScale supporte tous les clouds, à condition que ce soit des clouds EC2 d'Amazon ...

5. Une tarification en mode puzzle



La grille des prix d'Appistry ressemble est un peu nébuleux

(...)

(19/07/2010 17:11:29)

Rackspace et la NASA s'associent dans le cloud Open Source

A force d'observer les nuages de l'espace, l'agence spatiale américaine a décidé de s'investir dans le cloud computing en mode Open Source. Cela passe par la création d'une plateforme commune baptisée Openstack, avec la société Rackspace. Pour l'instant peu formalisé, l'accord entre les deux sociétés porte sur une étroite collaboration pour initier d'autres initiatives dans le cloud computing. Dans leurs efforts, d'autres entreprises comme AMD, Citrix, Dell, Iomart, Spiceworks participeront à l'aventure.

Rackspace et la NASA ont chacun publié des éléments du code de la plateforme. Ainsi, l'hébergeur apporte le code de ses solutions Cloud Files et Cloud Server. De son côté, l'agence américaine met à disposition le code de sa plateforme cloud Nebula. « Le calcul scientifique moderne nécessite toujours plus d'augmentation de stockage et de puissance de traitement délivrée à la demande » explique Chris Kemp, CTO de la NASA et de compléter « pour répondre à cette demande, nous avons construit Nebula, une plateforme d'infrastructure cloud capable d'adresser les besoins de nos scientifiques et la communauté d'ingénieurs.

Les premiers travaux portent sur deux éléments ; Openstack compute, qui permet le déploiement et la gestion de capacité de calcul à grande échelle. Ce logiciel repose sur le langage Python, des frameworks Tornado et Twisted. La deuxième solution est baptisée OpenStack Object Storage et s'adresse au stockage des données.

En quête de standardisation

Fabio Torlini, à la tête des services cloud de Rackspace, explique que cette solution pourrait accélérer le développement de tels services en apportant un bon niveau d'interopérabilité. « Nous estimons que notre plateforme deviendra de facto un standard à terme » souligne le responsable et d'ajouter « le décollage des services sera alors massif ». Si Fabio Torlini reconnaît que le bénéfice immédiat de l'adoption d'une telle plateforme est limitée, sur le long terme, elle devrait dynamiser le nombre d'applications disponibles.

Le même dirigeant reconnaît que les utilisateurs restent frileux sur le cloud pour des questions de sécurité. La publication du code du projet doit répondre à ces inquiétudes et donner la possibilité aux entreprises d'adapter leur propre règle de sécurité.

 

 

Crédit Photo: NASA

(...)

(15/07/2010 15:20:12)

Oracle publie 59 correctifs de sécurité, dont trois critiques

Sur les 59 patchs annoncés dans le cadre de la campagne trimestrielle Critical Patch Updates d'Oracle, 13 concernent des problèmes de sécurité fragilisant la suite de base de données maison et 28 pour des vulnérabilités exploitables à distance et considérées d'une importance capitale par l'éditeur. : elles permettent en effet de prendre le contrôle des systèmes sans avoir besoin de s'identifier par un nom d'utilisateur ou un mot de passe. « Trois de ces patchs sont essentiels car ils portent sur des défauts particulièrement dangereux dans toutes les versions database server d'Oracle, » a déclaré Josh Shaul, directeur de la gestion produits chez Application Security, un spécialiste en solutions de sécurité basé à New York. L'une des failles, qui porte le numéro CVE-2010-0902, permet à tout utilisateur authentifié au sein d'une base de données Oracle de disposer d'un accès administrateur total. «Ils peuvent consulter la base de données, la modifier ou arrêter le serveur de base de données. En un mot, ils disposent de toutes les autorisations administrateur de la base de données, » a expliqué Josh Shaul.

Des failles critiques pour les entreprises

Les deux autres failles critiques affectant la base de données pourrait être exploitées sans que l'utilisateur ait même besoin d'être connecté à la celle-ci. Elles permettraient notamment à un attaquant de déclencher un déni de service (DoS) contre la base pour la rendre inaccessible aux utilisateurs légitimes. «Ce sont trois vulnérabilités très dangereuses pouvant mettre à néant la base de données, » a encore déclaré le responsable d'Application Security. « L'indice établi par Oracle pour classer les failles par niveau de gravité ne reflète pas la véritable nature de la menace, » a t-il commenté.


[[page]]

La suite de produits Solaris acquise par Oracle avec le rachat de Sun Microsystems est concernée par 21 correctifs dans le total de ceux qui ont été livrés, dont 7 sont exploitables à distance. Dix-sept des correctifs réparent des failles dans E-Business Suite et Supply Chain Management (SCM), dans la suite JD Edwards de PeopleSoft. Une autre série corrige 7 failles dans les produits Fusion Middleware d'Oracle, tandis que l'un des correctifs colmate un trou dans Enterprise Manager Grid Control.

Mise en oeuvre prudente

Comparativement aux livraisons précédentes, le nombre de correctifs appliqués cette fois-ci est globalement assez faible. En Janvier 2006 par exemple, Oracle avait publié 82 correctifs après une mise à jour effectuée en octobre qui réparait déjà 101 bugs. Dans le passé, les administrateurs d'Oracle ont été notoirement lents à déployer des correctifs de sécurité, en particulier dans les environnements de base de données. Des enquêtes ont montré que les environnements sous Oracle attendent souvent plusieurs mois avant de disposer de correctifs de sécurité, même dans les cas où les failles peuvent représenter un danger manifeste. Cet immobilisme découle en grande partie de la préoccupation concernant la mise en oeuvre de ces correctifs, le délai nécessaire pour tester et déployer ces patchs entrainant une perturbation redoutée de la production. « Depuis peu les entreprises savent de mieux en mieux réagir pour effectuer le déploiement des correctifs dans les base de données Oracle, aidées notamment par des outils qui facilitent la gestion de l'application des patchs, » a déclaré Josh Shaul.

Crédit photo : D.R.

(...)

< Les 10 documents précédentsLes 10 documents suivants >