Flux RSS
Infrastructure serveur
2924 documents trouvés, affichage des résultats 851 à 860.
| < Les 10 documents précédents | Les 10 documents suivants > |
(29/09/2010 15:24:49)
Le cloud d'Amazon soutient le développement PHP
Le SDK d'Amazon Web Services (AWS) pour PHP fonctionne avec PHP 5.2 ou des versions ultérieures. Les développeurs peuvent créer des applications qui se servent des différents éléments du cloud d'Amazon, dont Simple Storage Service (S3), Elastic Compute Cloud (EC2) pour la capacité de calcul et la base de données SimpleDB .
Le kit de développement est basé sur le toolkit CloudFusion et comprend une bibliothèque d'API, des échantillons de code et la documentation. Il convient de simplifier le développement en fournissant des outils sur mesure, selon Amazon. Auparavant, les développeurs avaient besoin de de télécharger plusieurs bibliothèques de différents fournisseurs afin de bâtir une application sur les différentes briques d'AWS.
En mars dernier, le créateur de CloudFusion, Ryan Parman, a rejoint Amazon pour pouvoir se concentrer exclusivement sur l'amélioration du logiciel. Avec les ressources mises à disposition, il a été en mesure de réaliser « d'énormes progrès dans l'amélioration de presque tous les aspects du projet», indique-t-il sur le site de la solution. Il répond aussi à d'autres questions sur les changements que le SDK AWS pour PHP apporte, y compris un commutateur d'une licence BSD vers Apache 2.0. Amazon fournit également un guide qui explique comment migrer de CloudFusion 2.5 à AWS SDK pour PHP.
Ryan Parman consacre désormais tous ses efforts sur le SDK de l'AWS pour PHP, mais CloudFusion continuera à exister comme un projet ouvert, souligne-t-il.
Le cloud d'Amazon est agnostique en matière d'API pour les services web et n'importe quels langages de programmation sont acceptés. Pour ceux, cependant qui désirent plus de support, l'éditeur propose également des kits de développement pour Java et Microsoft. NET en plus du SDK PHP.
Le SDK AWS pour PHP peut être téléchargé sur le site d'Amazon.
Dell étoffe ses solutions intégrées pour les datacenters virtualisés
Le constructeur informatique souhaite étendre son rôle au sein des datacenters et se détacher définitivement de l'image de fournisseurs de matériels à bas coût, en proposant un ensemble de produits pour la gestion des infrastructures virtuelles. Grâce à des acquisitions, des partenariats et ses propres développements, Dell a assemblé un ensemble de logiciels appelé Virtual Integrated System), qui facilitera pour les entreprises le déploiement et la supervision des serveurs, du réseau et du stockage dans un environnement virtualisé.
Cette annonce va permettre à Dell de concurrencer des fournisseurs plus expérimentés en la matière sur des solutions plus complexes à mettre en oeuvre. VIS réduira aussi la dépendance de Dell au hardware qui apporte moins de valeur ajoutée que les services et les logiciels. La solution proposée entre directement en concurrence avec l'offre UCS de Cisco et Blade System Matrix d'HP. VIS aidera, selon le texan, les entreprises à virtualiser leurs centres de données pour créer un pool de ressources de calcul, dans lequel la charge de travail peut être modulée pour accompagner les pics de demande. Cette solution s'installe au-dessus des plates-formes de virtualisation de VMware, Citrix et Microsoft, et gère de manière plus cohérente leurs serveurs, réseau et de stockage.
Un millefeuille de logiciels
Au coeur de VIS réside Advanced Infrastructure Manager (AIM), basé sur la technologie Scalent (société acquise par Dell). AIM peut fournir une application sur un serveur - virtuel ou physique - pour répondre à une forte demande immédiate. Le logiciel affecte aussi des ressources de réseau et de stockage nécessaires automatiquement. « Un facteur de différenciation est que notre solution s'adapte à nos produits, mais également à ceux d'autres fournisseurs » souligne Eric Endebrock, responsable marketing Entreprise chez Dell. Elle peut ainsi s'interfacer avec des serveurs HP et IBM, mais aussi avec les équipements réseau de Cisco, Juniper et Brocade. Pour le stockage, elle fonctionne avec EqualLogic, mais Eric Endebrock pense que d'autres plateformes seront supportées dans le futur.
AIM a été présentée plus tôt cette année. Il s'agit donc d'une mise à jour, comprenant une interface graphique plus facile à utiliser et la prise en charge du 10 Gigabit Ethernet et du Fibre Channel over Ethernet. Un plug-in est aussi disponible pour le logiciel de gestion de VMware vCenter qui via son interface accède à AIM. VIS comprend également une composante innovante, le Self-Service Creator, un logiciel de Dynamic Ops que Dell revend sous sa propre marque. Il s'agit d'un portail qui autorise un développeur ou un responsable informatique à sélectionner et à lancer les ressources de calcul dont ils ont besoin. Il prévoit un mécanisme de rétrofacturation, ainsi qu'un contrôle de l'inactivité ou de la sous-utilisation des machines virtuelles. Le prix d'AIM et Self Service Creator est respectivement de 1 810 dollars et 1 495 dollars par socket.
Enfin, Dell lancera dans les prochains trimestres, VIS Director, a expliqué Eric Endebrock. Elle aussi, sera basée sur un partenaire technologique, et offrira des possibilités de suivi et d'analyse pour améliorer les performances.
Changer d'image
Mark Bowker, analyste senior chez Enterprise Strategy Group, estime que le marché des solutions similaires à VIS est encore émergent. Dell pourrait s'appuyer sur les services entreprises de Perot, pour l'aider à vendre ces produits, souligne le consultant. Il pourrait ainsi proposer une offre de bureau virtuel, en fournissant l'infrastructure back-end ainsi que les ordinateurs de bureau et le support. L'un des plus grands défis que Dell aura à surmonter est une perception selon laquelle il n'a pas le savoir-faire technologique pour gérer des environnements virtuels complexes. «Au coeur de cette histoire, Dell va tâtonner pour se forger une légitimité », a déclaré Frank Gillett, analyste de Forrester Research. Un pari qu'il commence à gagner. En effet, certains clients ont plus confiance en Dell qu'avant. Ainsi, Jim Journeay, DSI au Meridian Credit Union à St. Catherines, en Ontario, a déclaré que son entreprise a récemment changé ses serveurs IBM par des Dell. La première raison est une question de coût, mais il a aussi été impressionné par la compétence des équipes Dell Perot, « Dell a parcouru un long chemin au cours des deux dernières années. Il n'était pas perçu auparavant comme une plate-forme serveur solide », a déclaré Jim Journeay. S'il n'utilise pas aujourd'hui la solution VIS, préférant les outils de gestion VMware, il étudiera la question dans le futur.
France Grilles, une infrastructure de grille de production française
Le terme de grille informatique, ou grid en version anglaise, désigne des infrastructures informatiques et de communication électroniques ayant pour principe la globalisation des moyens informatiques et des données pour offrir aux utilisateurs de façon transparente des ressources très importantes, tant en capacité de stockage et de calcul, qu'en services. La France vient de se doter dans ce domaine d'un GIS (Groupement d'Intérêt Scientifique) baptisé France Grilles. Il regroupe le CEA, la Conférence des présidents d'universités (CPU), le CNRS, l'INRA, l'INRIA, l'INSERM, RENATER et le ministère de l'Enseignement supérieur et de la recherche. Si la création date du mois de juin dernier, l'inauguration officielle a eu lieu le 24 septembre dernier.
Les objectifs de ce groupement sont notamment d'établir une infrastructure nationale de grilles de production, pour le stockage et le traitement de données scientifiques massives, en coordonnant les efforts de chaque associé. La grille de production française rassemble aujourd'hui plus de 22 000 ordinateurs et 14 millions de Gigaoctets de stockage répartis dans 23 sites sur tout le territoire et ses ressources doublent tous les trois ans. Ses utilisateurs, au nombre de 800, sont des scientifiques ayant de très gros besoins de calcul dans des domaines comme la physique subatomique, les sciences du vivant et de la planète, etc.
Ces efforts doivent être coordonnés au niveau communautaire au sein de la grille européenne de production, EGI (European Grid Initiative), qui comprend 100 000 processeurs et 50 Petaoctets de capacités de stockage.
Tilera équipera un serveur avec 800 coeurs RISC en 2011
Ces puces, dont le noyau, réalisé sur une architecture RISC (Reduced Instruction Set Computing), peut atteindre une vitesse d'horloge de 1,5 GHz et comprend 32 Mo de cache agrégé, sont destinées à une architecture 64 bits. Elles seront disponibles en quantité limitée à partir du second semestre 2011.
Pour Bob Doud, directeur de la stratégie en matière de processeur pour l'entreprise taïwanaise Quanta Computer, « il ne fait aucun doute que Quanta construira un serveur 2U utilisant huit processeurs Tile GX100 de Tilera, » comme il l'a déclaré dans une entretien donné lors de l'évènement « Tech Linley Processor » qui s'est tenu à San José en Californie. « Quanta commencera sans doute à fabriquer ce serveur à partir de la seconde moitié de l'année prochaine, ce qui laisse espérer une disponibilité pour la fin de l'année 2011, » a-t-il déclaré. Quanta, un des investisseurs associé au fabricant de puces basse consommation Tilera, avait déjà annoncé au moins de juin un serveur "low power" de 512 coeurs sur huit processeurs Tilera de la génération précédente. « Les serveurs 800 coeurs offriront plus de densité de calcul dans un rack 2U et plus de performance par watt que les concurrents, » a expliqué Bob Doud. La puce pourra servir dans de multiples applications et notamment le cloud computing, la vidéo, la diffusion et les réseaux.
Plusieurs fabricants de serveurs proposent ou ont annoncé des serveurs de faible consommation énergétique pour répondre aux besoins croissants des centres de calcul, notamment en matière de cloud computing. Dell propose ainsi des serveurs équipés des processeurs pour netbook Via Nano, et la start-up SeaMicro propose un serveur comportant 512 processeurs Intel Atom montés sur des cartes mères de la taille d'une carte de crédit. Des entreprises comme Marvell et SmoothStone ont également fait part de leur intention de livrer des puces serveurs basées sur des processeurs ARM.
Concurrencer directement les architectures X86
En plus de le CPU 100 coeurs, Tilera a annoncé des processeurs TileGX avec 16, 32 et 64 coeurs. « Les premières puces du genre seront mises sur le marché plus tard cette année, » a indiqué Bob Doud. Avec ces puces, Tilera essaie d'établir une tête de pont sur le marché des serveurs, dominé par les processeurs basés sur l'architecture x86 d'Intel et d'AMD. L'architecture x86 est la plus répandue dans les serveurs en raison de la forte puissance de calcul de ses processeurs et de l'énorme quantité de logiciels disponibles. Mais nombres d'entreprises sont à la recherche d'autres types de puces pour remplacer les x86, trop gourmandes en énergie et dégageant beaucoup de chaleur, deux casse-tête pour les opérateurs de datacenters. « Il y a évidemment une barrière à franchir parce que nous proposons une architecture d'instructions différente de celle du x86, » a encore ajouté Bob Doud. « Mais les fabricants de serveurs sont intéressés par ces puces en raison de leur efficacité énergétique et de leur performance élevée. »
L'entreprise a adopté une approche différente d'Intel ou d'AMD pour concevoir sa puce TileGX : les noyaux sont placés dans une architecture en maillage organisée en carré avec de multiples points de connexion pour transmettre et recevoir les données. Chaque noyau est relié à un switch permettant un échange plus rapide des données. Les processeurs des concurrents reposent sur des connexions transversales, un choix qui risque de poser des problèmes de vitesse de transmission à mesure que le nombre de coeurs augmente. L'architecture en maille, laquelle intègre CPU, cache et interconnections, offre de nombreux avantage en matière de performance par rapport aux solutions x86. « Dans toutes les autres architectures, il a fallu ajouter un anneau, puis un pipeline circulaire et maintenant une traverse, pour pallier au ralentissement du bus. L'architecture Tile s'avère vraiment adaptée, » a t-il affirmé.
Intel a déjà pris exemple sur les produits de Tilera, annonçant dès l'année dernière une puce expérimentale 48 coeurs réalisée sur le principe du « mesh ». La Tile-GX100 pourra exécuter le système d'exploitation Linux, et supportera des applications écrites en Java, en langages C ou C++. Des applications Linux pour le cloud computing, comme le serveur web Apache, la base de données MySQL et le logiciel de cache Memcached fonctionnent déjà sur des puces Tilera.
Orange Business Services lance Flexible 4 Entreprise basé sur VBlock
En discussion lors du dernier EMC World Forum à Boston, Orange Business Services a finalement annoncé une alliance commerciale avec Cisco, EMC et VMware, trois acteurs ayant créé en novembre 2009 l'association Virtual Computing Environment (VCE). Cette dernière combine la partie réseau, le stockage, les serveurs et les composants de virtualisation au sein d'un seul produit, baptisé VBlock qui s'intègre au sein des datacenters. Cisco, EMC et VMware ont également formé une coentreprise, appelée Acadia, pour aider les clients et les intégrateurs de systèmes à déployer leur solution.
Orange Business Services va intervenir comme prestataire de services et fournira quatre types de solutions managées basées sur une facturation à l'usage. La gamme d'offres de cloud computing de « Flexible 4 Business » sera constituée dans un premier temps de solutions d'« Infrastructure as a Service » (IaaS) incluant du cloud privé (informatique, hébergement, middleware, OS) et des services de backup (sauvegardes hautement sécurisées), ainsi que des solutions de « Sofware as a service » (SaaS) incluant des services de sécurité (antivirus, filtrage, etc.) et de communications unifiées (avec une allocation à la demande). L'objectif est d'accompagner la migration progressive vers les clouds privés.
Les opérateurs en pole position
Peter Hall, analyste chez Ovum, a déclaré qu'OBS, AT&T et BT étaient en position de force pour rivaliser dans le cloud computing avec les autres acteurs IT. Il a prédit que les grands opérateurs mondiaux et régionaux seraient les principaux fournisseurs de service IaaS et SaaS. Cette opinion est partagée par Rob Lloyd, vice-président exécutif des opérations internationales de Cisco : « en travaillant depuis 10 ans avec Orange Business Services sur les services managés, nous pensons que le cloud privé et sa virtualisation sont une extension de ces services, Orange est donc parfaitement légitime dans ce domaine ». Avec cet accord, Peter Hall estime qu'« OBS a pris une longueur d'avance sur ses concurrents ». De son côté, Vivanek Badrinath, directeur exécutif d'Orange Business Services, a souligné que cette alliance « montre que le cloud a atteint un certain degré de maturité ». Pour rappel, l'offre Flexible computing lancée récemment comptait une dizaine de clients, mais l'optimisme primait.
La semaine dernière, les partenaires VCE ont annoncé un accord avec SingTel, opérateur de Singapour, sur l'utilisation des VBlocks pour offrir des services hébergés auprès des entreprises avant la fin de cette année. SingTel est le premier client asiatique.
L'Iran confirme les dégâts causés par Stuxnet : 30 000 PC touchés
Considéré par de nombreux chercheurs en sécurité comme le ver le plus sophistiqué existant, Stuxnet avait été signalé une première fois mi-juin par VirusBlokAda, une société en sécurité informatique biélorusse peu connue. Un mois plus tard, Microsoft reconnaissait que le ver ciblait des PC sous Windows et en particulier ceux qui gèrent les systèmes de contrôle des grandes industries publiques ou privées. Appelés SCADA, ces systèmes d'acquisition et de contrôle des données, gèrent à peu près tout type d'installations, depuis les centrales électriques et les machines des usines jusqu'aux oléoducs et aux installations militaires.
Selon des chercheurs américains travaillant avec l'éditeur Symantec, l'Iran a été sévèrement touchée par Stuxnet puisque près de 60% de tous les ordinateurs infectés lors de la première vague connue sont situés dans ce pays. Les experts ont accumulé les preuves selon lesquelles ce ver avait commencé à attaquer les systèmes SCADA au moins depuis le mois de janvier 2010. Entre temps, d'autres ont émis l'hypothèse que Stuxnet avait été créé par un Etat avec comme objectif le réacteur nucléaire iranien Bushehr. Situé dans le sud-ouest de l'Iran, près du golfe Persique, ce réacteur a été à l'origne des tensions avec l'Occident et les États-Unis en particulier, lesquels soupçonnent que le combustible du réacteur pourrait être retraité en plutonium enrichi pour réaliser des armes nucléaires.
Des réunions d'experts pour contrer le ver
Selon l'agence Mehr News Agency basée à Téhéran, Mahmoud Alyaie, un officiel iranien en charge des technologies au ministère iranien de l'industrie et des mines, a déclaré que 30 000 adresses IP avaient été infectées par Stuxnet. Comme plusieurs ordinateurs peuvent accéder à Internet via une adresse IP unique, le nombre total de PC infectés pourrait être bien plus important. « Un groupe de travail composé d'experts issus de plusieurs ministères du gouvernement iranien a été mis en place pour faire face à l'infection par Stuxnet, » a déclaré Mahmoud Alyaie. D'autres sources citées par l'agence de presse affirment que l'Iran a la capacité de concevoir les outils antivirus nécessaires pour détecter et détruire le ver.
Samedi, l'Associated Press (AP) faisait savoir que les experts de l'agence iranienne de l'énergie atomique s'étaient déjà réunis mardi dernier pour discuter d'une parade. Citant l'agence ISNA, également basée à Téhéran, l'AP indique qu'aucune industrie ou type d'installations n'ont été mentionnées. Mais les spéculations pointent vers le réacteur de Bushehr comme cible probable de Stuxnet. Depuis samedi, le site web de l'Agence iranienne à l'énergie atomique affiche un lien vers un long article que l'agence Mehr consacre à Stuxnet, où l'on peut lire que des responsables du gouvernement ont été informés « de dommages graves. » Bien que la centrale de Bushehr ne soit pas encore opérationnelle, des ouvriers ont commencé à charger du combustible nucléaire dans le réacteur le mois dernier.
Qualifié de "révolutionnaire" par un expert qui en a décortiqué le code, Stuxnet utilise plusieurs vulnérabilités ou "zero-day" non corrigées de Windows et s'appuie sur des certificats numériques volés pour masquer le malware. Le code utilise un rootkit et une API qui envoie des ordres à la machine gérée par le logiciel. Microsoft qui a corrigé deux des quatre vulnérabilités "zero-day" exploitées par Stuxnet, a promis de fixer les deux autres prochainement.
OpenIndiana se pose en remplaçant de Solaris 11
Alasdair Lumsden, directeur général d'une société d'hébergement, EveryCity, est un des protagonistes du projet. « Nous avons utilisé Solaris 10 au sein de mon entreprise et Sun a commencé à facturer des suppléments pour la sécurité. Nous sommes donc passés à OpenSolaris, mais après le rachat d'Oracle, cela est devenu très cher. Alors, avec quelques personnes de la liste de diffusion, nous avons travaillé sur une version Open Source. » EveryCity a été utilisé pour l'hébergement, mais le projet reste un élément indépendant de son activité.
Alasdair Lumsden estime avoir bien anticipé l'abandon d'OpenSolaris. « Il y a un mois, une note de service à partir d'Oracle a été divulguée, révélant que l'éditeur arrêtait le développement d'OpenSolaris en se concentrant sur ses offres commerciales. ». Le dirigeant pense que le projet n'entre pas en conflit avec celui déjà existant Illumos, basé sur le noyau OpenSolaris. « Je vois des similitudes avec Linux dans la manière de diversifier les distributions comme Red Hat autour d'un même noyau. Il y aura aussi plusieurs distributions OpenSolaris » confirme-t-il avant d'ajouter : « OpenIndiana offre quelque chose de différent. Les autres projets tournent depuis longtemps autour de la question, mais notre projet a été spécialement conçu pour remplacer Solaris 11. ».
OpenIndiana utilise la licence CDDL pour construire son « système d'exploitation à partir du code source d'OpenSolaris ». Alasdair Lumsden a déclaré que le logiciel ne devrait pas faire face à plus de difficultés juridiques que Google avec Android. « Oracle n'a rien pour nous poursuivre », dit-il. « La seule chose qui nous préoccupait était le nom, car nous ne devions pas utiliser Solaris dedans. » conclut-il.
Le programme a été lancé la semaine dernière et a été téléchargé 2 000 fois dès le premier jour.
Consolidation et continuité d'activité restent les priorités des entreprises, montre Forrester
Selon une étude du cabinet Forrester réalisée auprès de 2 800 décideurs informatiques dans le monde (en Australie, Nouvelle Zélande, Brésil, Canada, Chine/Hong Kong, France, Allemagne, Inde, Japon, Mexique, Russie, Royaume-Uni et Etats-Unis), la première priorité des PME en matière d'informatique sur les douze prochains mois est d'améliorer les plans de continuité d'activité et de reprise après sinistre (PCRA). La deuxième est de consolider les infrastructures techniques. Pour les grandes entreprises, les deux priorités principales sont identiques mais dans l'ordre inverse.
Juste après arrivent dans des niveaux de priorités similaires l'amélioration de la sécurité informatique et les solutions de mobilité. SOA et technologies « innovantes » (comme la vidéoconférence et le collaboratif) sont loin derrière et restent davantage dans les priorités des grandes entreprises que des petites.
Mais les budgets attribués aux projets, eux, ne suivent pas les mêmes logiques. Les investissements sont nettement plus importants (exprimés en pourcentages du budget IT global) sur des refontes architecturales (cloud, SaaS...) ou du déploiement des technologies « innovantes » (surtout dans les grandes entreprises) que sur les sujets jugés précédemment davantage prioritaires.
(...)
Citrix renforce son équipe en France
Directeur Général de Citrix France depuis mars dernier, Eric Lecoq hérite d'une dynamique enviable : l'éditeur a enregistré une croissance de son chiffre d'affaires de 35% au second trimestre 2010 et son objectif pour les trimestres à venir est de progresser systématiquement plus vite que le marché global de la virtualisation. De fait, Citrix doit embaucher, notamment dans l'Hexagone. L'équipe commerciale devra compter plus de 60 personnes d'ici la fin de l'année, contre 50 aujourd'hui. « Cela ne change rien à notre modèle de distribution, qui reste 100% indirect, affirme Eric Lecoq. L'objectif est plutôt d'apporter de nouvelles ressources à nos 180 partenaires certifiés. »
De fait, Citrix ne souhaite pas recruter davantage de partenaires, mais renforcer ses liens avec ses relais existants. « En France, nous travaillons avec toutes les entreprises du CAC 40 et, au niveau mondial, 1 613 sociétés du Global 2000 sont clientes de Citrix, précise Eric Lecoq. Le premier enjeu est donc de renforcer notre présence dans les moyennes entreprises. »
Une direction renouvelée
Arrivé chez Citrix au printemps, Eric Lecoq a travaillé dans l'édition logicielle depuis 20 ans, notamment chez Oracle ou BMC Software. Pour autant, les trois directeurs commerciaux qu'il vient de nommer sont issus des rangs de Citrix. Franck Risbec, ancien de RISC Technologies et de HP, était auparavant responsable des grossistes chez Citrix France : il devient Directeur Channel. Patrick Rohrbasser, jusqu'à présent en charge des régions, est promu Directeur Grands Comptes (le CAC 40 et les grandes administrations). Enfin, Karim Djamaï est nommé Directeur Mid-Market : il a notamment été responsable des alliances et du secteur Ile-de-France.
« La dynamique de ce marché est forte et nous devons être en mesure de renforcer nos parts de marché. Cela passe par des recrutements en interne, par un plus grand support de nos partenaires et par de nouveaux accords technologiques, tel que celui que nous passons avec Cisco, dont l'offre sera « Citrix ready », conclut Eric Lecoq.
| < Les 10 documents précédents | Les 10 documents suivants > |