Flux RSS

Infrastructure serveur

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

2924 documents trouvés, affichage des résultats 1221 à 1230.

< Les 10 documents précédentsLes 10 documents suivants >


(23/02/2010 12:03:27)

F5 Networks virtualise son serveur spécialisé Big-IP Local Traffic Manager

L'équipementier, spécialisé dans les serveurs haute performance, annonce la disponibilité en évaluation de son appliance virtuelle, le Big-IP Local Traffic Manager (LTM). Elle combine virtualisation et l'aspect physique du contrôleur de délivrance d'applications. Cette version d'essai est téléchargeable sur le site http://www.f5.com/trial/. « Le réseau de délivrance d'applications est la base pour adopter une architecture flexible et le contrôleur avancé développé par F5 peut être la solution qui permet de délivrer dynamiquement les services », explique Erik Giesa, vice-président du marketing et gestion des produits F5 Networks. « Aujourd'hui, les départements IT peuvent réduire leurs temps de test en s'appuyant sur le Big-IP virtuel, qui appliquera les tests sur différentes configurations, avec les programmes iControl et iRules. Les résultats seront intégrés instantanément dans le serveur physique Big-IP. » En parallèle, l'équipementier propose une déclinaison d'entraînement sur le web de sa solution Big-IP LTM, baptisée « Essentials Training Class ». Cette formation est accessible à tout le monde, gratuitement. (...)

(15/02/2010 17:33:36)

Avec Cyclone, SGI invite au calcul scientifique dans le cloud

Sous le nom de Cyclone, SGI vient de lancer une offre de cloud computing reposant sur ses technologies de supercalculateur et spécifiquement consacrée à des applications techniques et scientifiques. Le constructeur, racheté au printemps dernier par Rackable Systems, met ainsi à disposition une puissance de calcul à la demande qui s'exploite suivant deux modes. D'une part, les entreprises peuvent louer du temps de calcul pour faire tourner leurs propres applications sur les technologies HPC de SGI. D'autre part, elles peuvent accéder sur Cyclone à une quinzaine d'applications scientifiques parmi les plus utilisées dans le domaine de la mécanique des fluides et du calcul de structure (OpenFoam, Numeca, Acusolve, LS-Dyna), de la modélisation moléculaire (Gaussian, Gamess, Namd, Gromacs, Lammps), de la biotechnologie (Blast, Fasta, Hmmer, ClustalW) et du Web sémantique (OntoStudio). « Cette puissance de calcul à la demande répond à des besoins bien identifiés, explique Patrice Gommy, directeur marketing de SGI France. Elle vise à la fois les entreprises qui ne peuvent pas investir dans des technologies de supercalculateur et celles qui sont déjà équipées mais qui, pour une étude particulière, doivent accéder à une puissance 'pic' à un moment donné ». Un service tarifé un dollar l'heure de processeur HPC L'heure de calcul sur Cyclone est facturée un peu moins d'un dollar par processeur. Sur cette base, on peut estimer par exemple qu'il en coûtera mille dollars pour exploiter en environnement HPC la capacité de mille processeurs pendant une heure. Les offres de calcul à la demande existent depuis longtemps. Mais, « jusqu'à présent, la puissance de calcul en ligne était généralement réservée à certains utilisateurs, dans certains centres de recherche notamment », précise Patrice Gommy. Avec cette offre de cloud, toute entreprise peut maintenant y accéder. A noter qu'en France, Bull prévoit lui aussi de lancer cette année des services de calcul à la demande sur HPC dans le cloud. Voilà déjà quelques années que SGI pensait à fournir ce type de service. Le rapprochement avec Rackable Systems, spécialistes des datacenters, a accéléré le mouvement. « Nos technologies sont très complémentaires », souligne le directeur marketing de SGI France, qui rappelle que les datacenters de Google, Youtube et Facebook reposent sur les serveurs de Rackable, de même que les cloud Azure de Microsoft et EC2 d'Amazon. Mémoire partagée, mémoire distribuée et clusters GPU Quant à la technologie SGI utilisée pour Cyclone, elle va permettre d'accéder à trois types d'architecture, explique Patrice Gommy. Suivant la nature de ses applications, le client retiendra celle qui lui apportera des performances optimisées. «Pour les applications ayant d'importants besoins en mémoire (de 1à 4 To), les clients s'appuieront sur une machine SMP à mémoire partagée, typiquement, par exemple, dans le domaine de la modélisation moléculaire.» A l'inverse, si la nature de l'application requiert plutôt d'optimiser les échanges entre processeurs, Cyclone propose des architectures à mémoire distribuée avec des noeuds de clusters interconnectés en technologie QDR Infiniband ou Gigabit Ethernet. Par ailleurs, Cyclone va aussi permettre aux entreprises qui le souhaitent de tester leurs applications avec des processeurs graphiques, dans une architecture hybride, connectant un cluster classique à des clusters de type GPU. Conçus pour le traitement de l'image et la visualisation, les GPU apportent dans certains cas des puissances de calcul très supérieures aux processeurs classiques pour autant que les applications aient été redéveloppées pour en tirer parti. « Mais toutes ne s'y prêtent pas, rappellent Patrice Gommy. Certains clients prêts à investir sur ce terrain nous ont donc demandé, auparavant, de leur mettre à disposition des architectures de types GPU afin d'y valider leurs applications ». Cette offre de cloud computing repose sur deux datacenters installés aux Etats-Unis, l'un situé en Californie, au siège de SGI, l'autre dans le Wisconsin. (...)

(15/02/2010 14:57:36)

Datacenter en conteneurs : le retour d'APC

Intégrés à des conteneurs d'expédition de 6 à 12 mètres bourrés de serveurs haute densité et de baies de stockage, les datacenters conteneurisés permettent aux entreprises d'ajouter rapidement des capacités de calcul à un centre de données existant, ou d'apporter une puissance informatique supplémentaire sur un théâtre d'opérations, dans le domaine militaire, par exemple. Néanmoins, les conteneurs actuels doivent toujours être raccordés à une unité électrique et à un système de refroidissement, de sorte que, la plupart du temps, il faut les placer à l'intérieur ou à proximité des centres de données existants. « Le nouvel engin d'APC devrait fournir aux entreprises une plus grande liberté quant au lieu où elles souhaitent installer leurs centres mobiles, » a déclaré Steve Carlini, directeur de la gestion produits chez APC. Le marché des conteneurs est encore relativement maigre et aujourd'hui peu d'entreprises manifestent de l'intérêt pour poser leurs datacenters dans un entrepôt au milieu de nulle part.

Une réserve de puissance immédiatement disponible


Mais certains fournisseurs, encouragés par certains analystes, les considèrent comme une option sérieuse pour remettre en route leurs services après un sinistre, en particulier pour les entreprises qui opèrent dans zones à risques, exposées à des catastrophes naturelles comme les tremblements de terre. Microsoft a même émis l'idée d'installer un centre de données en conteneurs dans chaque ville pour pouvoir offrir ses services en ligne. L'entreprise trouve la solution très économique en terme d'énergie, et la localisation de centres mobiles à proximité des clients permettrait d'éliminer la latence du réseau. Rappelons au passage que Google dissémine déjà à travers le globe ses datacenters conteneurisés conçus en interne.

[[page]]

Peu de ventes mais déjà plusieurs fournisseurs


APC a déjà développé des produits modulaires et les vends en Australie via un partenariat avec Datapod (voir vidéo). Ce vendeur commercialise plusieurs modules utilisant la technologie APC, dont un système Utilitypod avec refroidisseur et générateur intégrés. « Cette année, APC envisage de vendre ses propres infrastructures modulaires, plus largement, » a déclaré Steve Carlini, précisant que « l'entreprise ne sait pas encore si elle choisira de les vendre directement aux clients ou à travers des partenaires selon le modèle Datapod. » IBM, déjà partenaire d'APC, avait déclaré le mois dernier qu'il utiliserait l'InfraStruXure signée APC pour fournir l'électricité et le système de refroidissement de son data center portable modulaire. Dans le même temps, d'autres fournisseurs sont apparus, notamment Sun Microsystems (aujourd'hui intégré à Oracle), Rackable Systems (devenu SGI), IBM, Hewlett-Packard et Dell. « Les ventes restent encore relativement confidentielles, néanmoins, il s'est vendu 60 centres de données conteneurisées l'an dernier dans le monde entier, » a indiqué Steve Carlini, citant des chiffres d'IDC. Les volumes restent faibles en partie parce que peu d'entreprises achètent tous leurs équipement en une fois. Mais il faut dire aussi que ces produits sont chers. Le POD de HP, un Performance Optimized Data Center de 6 mètres, coûte environ 600.000 dollars, équipements informatiques non compris.

Retour au source pour APC


D'une certaine façon ce sera, pour APC un retour sur le marché du conteneur. En effet, c'est en 2004, que la société a commencé à proposer des centres de données en conteneurs. A l'époque c'était totalement nouveau. « On les amenait dans les évènements et les foires commerciales, à l'arrière d'un camion. On finissait bien par en vendre un certain nombre, mais l'idée de fournir un datacenter portable pour zone à risques ne suscitait pas encore d'intérêt, » se souvient Steve Carlini. En 2007, APC entre dans le giron de Schneider Electric, qui fabrique des générateurs et des systèmes de refroidissement. L'an dernier, l'entité Schneider Electric-APC a cessé la commercialisation de ses conteneurs pour mettre en place sa nouvelle stratégie. «Nous sommes de retour avec une approche différente. Nous fabriquons toujours un module informatique, mais, nous avons plus de modules électriques à notre catalogue », a déclaré Steve Carlini. Ce dernier n'a pas donné de détails sur les produits qu'APC va mettre sur le marché mais il a laissé entendre que l'entreprise proposerait plusieurs options, y compris des «modèles de référence» pouvant être optimisés en capacité de calcul, en efficacité énergétique ou en coût. Les solutions APC utiliseront des racks standards capables de s'adapter à tout type de fournisseurs. Le datacenter mobile d'APC et Datapod en vidéo

(...)

(12/02/2010 14:38:50)

Annuels Bull : les ventes de matériel et l'infogérance ont tiré le chiffre d'affaires

Le groupe français Bull a achevé son année sur un chiffre d'affaires consolidé en retrait de -2% par rapport à l'an dernier mais en légère progression (+0,3%) sur ses activités principales, souligne Didier Lamouche, son PDG. Le dirigeant insiste aussi sur la rentabilité opérationnelle qui dépasse les attentes, avec un bénéfice d'exploitation atteignant 27,6 M€, alors que l'objectif annuel était fixé à 25 M€. « Notre activité est stable, notamment par comparaison avec certains de nos concurrents ». Le PDG confirme comme prévu la remontée des commandes sur la fin de l'année, après le « trou d'air » subi au troisième trimestre. « Nous attendions +13%, nous avons eu +19% sur les prises de commandes ». En 2009 et sur le quatrième trimestre, ce sont les ventes portant sur l'offre de matériel et sur l'offre Extreme Computing (supercalculateurs) qui ont tiré le chiffre d'affaires. Ces activités ont progressé de 5,8% à 357,7 M€ sur l'année (32,2% du chiffre d'affaires global). Les activités Services et solutions (43,5% du CA) et Maintenance (17,3% du CA) ont de leur côté respectivement baissé de 2,23% et 2,88% sur l'année. Pour 2010, malgré la remontée des commandes, le groupe n'attend « pas de reprise de la conjoncture économique avant le second semestre ». Les premières offres communes avec Amesys, spécialiste des systèmes critiques, rachetées en novembre dernier, seront disponibles à partir du milieu de l'année. Amesys a développé une expertise combinée de l'électronique et de l'informatique, principalement sur les secteurs de la Défense et de l'aéronautique, des télécoms, des transports et de l'énergie.

50% de croissance sur l'offre d'Extreme Computing


Sur les ventes de matériel, le PDG de Bull avance deux motifs de satisfaction sur l'exercice écoulé. « D'une part, nos offres de serveurs 'legacy' GCOS et Unix ont été très stables, d'autre part, notre offre Extreme Computing a crû d'environ 50% et nous espérons une croissance équivalente en 2010. Nous comptons atteindre 15% de ce marché en Europe en 2010. » Didier Lamouche ajoute que l'activité de stockage sécurisé deBull a également progressé, sur un marché en décroissance. Sur le terrain des supercalculateurs, au quatrième trimestre, Bull a été retenu par le pétrolien brésilien Petrobras : « Nous leur avons vendu en décembre le plus gros système d'Amérique du Sud, d'une puissance de 250 Teraflops ».

[[page]]

Sur le trimestre, des contrats ont également été signés avec le secteur de la Défense, en France et au Royaume-Uni. Didier Lamouche indique que la nouvelle de famille de supercalculateurs éco-efficace, Bullx, lancée en juin, a été remarquée par le magazine américain HPCWire parmi les cinq technologies à suivre en 2010. « Nous sommes redevenus un acteur européen majeur de l'économie numérique. Ce n'était pas le cas il y a cinq ans », rappelle le PDG. Il cite aussi en exemple le récent film d'animation, Planète 51, produit par Ilion Animation Studios, dont le rendu graphique a été optimisé sur une ferme de serveurs mise à niveau avec l'offre Extreme Computing de Bull.

En 2010, une offre de calcul à la demande autour du HPC


Sur la partie services, au quatrième trimestre, l'activité d'infogérance de Bull a remporté un contrat important avec un producteur de papier australien. « Nous avons signé le 24 décembre avec PaperlinX qui a 'outsourcé' auprès de Bull l'informatique de ses seize filiales européennes, explique Didier Lamouche. Il s'agit d'un contrat de cinq ans qui va nous conduire à rationaliser leur informatique sur deux datacenters au lieu de seize ». Le PDG rappelle aussi que Bull est l'hébergeur du portail de l'administration française Mon.service-public.fr. En 2010, parmi les vecteurs principaux de progression figurent l'Extreme Computing et l'infogérance. Le groupe va mettre en production un datacenter dans l'Ouest parisien, qui va héberger toutes ses nouvelles technologies de HPC. « Nous voulons fournir une offre de cloud computing dédiée au HPC, explique Didier Lamouche. Il s'agira d'une solution de puissance de calcul à la demande ». Des services de cette nature existent déjà, mais réservées à certains clients (Renault, par exemple). La nouvelle offre pourra s'ouvrir aux PME. Le groupe va par ailleurs embaucher 600 personnes, dont 250 en France, sur le développement de logiciels, l'intégration de systèmes et sur les offres communes prévues avec Amesys. Le fournisseur continuera à faire croître ses efforts de R&D. Il prévoit notamment de livrer deux nouvelles offres sur l'Extreme Computing. (...)

(12/02/2010 11:06:23)

JO de Vancouver : un système d'information et de communication 100 % IP

Bell Canada affirme que le réseau mis en place pour Vancouver 2010 est le premier réseau IP convergent jamais déployé pour des jeux olympiques ou paralympiques. Il supportera en effet toutes les communications téléphoniques, sans fil, radio et bien sûr Internet. Sa capacité atteint 15 000 sessions VoIP simultanées. L'infrastructure a été construite et sera opérée et maintenue par une équipe de 3000 personnes, épaulée par des volontaires et des sponsors. Un réseau de plus de 285 Km de fibre optique Le coeur de l'infrastructure est constitué par un réseau de plus de 285 Km de fibre optique taillé pour transporter voix, données et services de diffusion broadcast. Il devrait notamment véhiculer 400 000 communications radio et 10 400 heures de flux vidéo qui seront vus par 3 milliards de personnes. 800 serveurs et 6000 PC supervisés d'un seul point Répartis sur 13 unités de traitement, le système informatique des jeux olympiques comprend 800 serveurs, 6000 PC et 4000 imprimantes. La supervision de cet ensemble est réalisée de façon centralisée. [[page]] Une informatique basée sur l'offre Sun Le comité d'organisation de Vancouver a déployé 125 serveurs Sun Sparc Enterprise, 475 serveurs Sun en architecture x64, ainsi que des baies de stockage StorageTek. L'une des 13 unités de traitement héberge un système de diffusion d'informations développé par l'intégrateur français Atos Origin. Il diffuse en temps réel des informations tels que les résultats et temps, auprès des athlètes, officiels, commentateurs et autres médias. Par exemple, les données collectées sur un capteur à l'arrivée d'un slalom sont relayées, des serveurs Sun jusqu'à l'Internet. D'autre part, des systèmes basés sur des serveurs Sun Fire X4100 sous Windows supportent la gestion des accréditations, du calendrier des épreuves et du planning d'opérations. Des équipements réseaux fournis par Avaya Avaya fournit le système de téléphonie sur IP, ainsi que les routeurs et commutateurs de l'ensemble du réseau. Les équipements devaient initialement être d'origine Nortel mais Avaya a repris cette partie de ses activités. [[page]] Le téléphone officiel des JO est signé Samsung Le téléphone Omnia 1 de Samsung, qui tourne sous Windows Mobile 6.5, est présenté comme le téléphone officiel des jeux olympiques de Vancouver. Ses utilisateurs pourront télécharger gratuitement le logiciel Wireless Olympic Works (WOW) qui les informera en temps réel des évènements actuels ou futurs. Silverlight choisi pour diffuser des vidéos HD sur Internet Le site NBCOlympics.com exploite la technologie Silverlight de Microsoft pour diffuser des vidéos en haute définition et des diaporamas. Une plate-forme d'édition vidéo signée Cisco Cisco fournit à la chaîne américaine NBC, une plate-forme d'édition en temps réel des contenus haute définition, entièrement basée sur un réseau IP. Elle permettra notamment d'alimenter des services de VOD et de streaming ciblant les téléviseurs, PC et mobiles. (...)

(11/02/2010 14:53:32)

TechDays 2010 : Orange Business Services distribuera Microsoft Online Services sur son cloud (MAJ)

Les opérateurs télécoms sont en mode offensif sur les services collaboratifs en ligne à destination des entreprises. Pendant les derniers TechDays (du 8 au 10 février), Orange Business Services a ainsi dévoilé un accord de distribution portant sur la suite Microsoft Online Services en version standard. Cette dernière comprend plusieurs outils comme Exchange Online (messagerie), Office Communications OnLine (bureautique), SharePoint Online (portail collaboratif) et Office Live Meeting Online (Webconferencing). Cette offre vient compléter la gamme actuelle de l'opérateur, baptisée « Business Together with Microsoft ». Dans un premier temps, cette suite sera distribuée auprès des grands comptes et des grands entreprises(à partir de 150 utilisateurs), mais Jean Pierre Savi, directeur marketing opérationnel IT d'Orange Business Services nous a indiqué qu'« une offre couplée accès et suite collaborative à destination des PME sera disponible à la fin de l'année 2010 » L'accord signé s'étend à la France, mais également à l'international sur 21 pays avec une extension prévue. Stratégiquement, Orange Business Services conforte sa volonté de devenir un acteur majeur du cloud computing à travers son expertise d'opérateur de réseaux, mais également d'intégrateur de services. Cette démarche guide aussi Orange Business Services dans son ambition de devenir un « guichet unique » auprès des entreprises pour les problématiques de clouds privés et publics. On notera que Orange Business Services prévoit d'enrichir l'offre Microsoft Online Services avec des services complémentaires tels que l'archivage des données, l'optimisation et l'accélération du réseau ou encore le portail utilisateur pour les grands comptes. Le périmètre de distribution devrait être étendu vers les PME prochainement. (...)

(11/02/2010 11:39:07)

Oracle lance son tour du monde du cloud

Ce world tour est en décalage avec les critiques faites publiquement par Larry Ellison à propos du cloud, qu'il considère comme un habillage et un mélange de technologies existantes. Lors d'un récent webcast dans lequel des cadres de l'entreprise s'exprimaient sur la manière dont la société envisage d'utiliser les éléments acquis avec le rachat de Sun Microsystems, certains ont déclaré que l'objectif principal d'Oracle serait d'aider ses clients à construire des cloud privés. En 2008, Ellison avait lui-même déclaré, non sans ironie, qu'Oracle ferait dorénavant des publicités sur le cloud. « Si la couleur orange est la nouvelle couleur à la mode, nous allons faire des blouses oranges. Et je ne vais pas m'opposer à cela, » avait-il déclaré. « Peut-être que nous en ferons une pub. Je ne vois d'ailleurs pas ce que nous ferions de plus pour le cloud computing que de changer les mots de certaines de nos publicités... » Oracle serait donc cloud natif... Mais la tournée de démonstration va apparemment tenter d'aller plus loin en détaillant de manière approfondie ce qu'Oracle va précisément faire en matière de cloud, une appellation malmenée et utilisée à grande échelle, depuis la virtualisation, jusqu'aux infrastructures informatiques modulaires comme celles vendues par Amazon Web Services, et aux services SaaS (Software as a Service). Au minimum, ces conférences viendront «dissiper le brouillard» entourant le sujet, à mesure que les « experts d'Oracle » clarifieront la manière dont les entreprises peuvent profiter du « cloud». Parmi les sujets abordés, les participants pourront récolter des conseils sur l'élaboration d'un cloud privé, apprendre comment transférer des environnements informatiques actuels vers une structure équivalente de type cloud, et comment utiliser les options de cloud publics comme les AWS. « Oracle doit simplement satisfaire une demande en cloud public, tant les forces du marché vont dans cette direction, » a déclaré China Martens du cabinet d'analystes 451 Group. « Mais l'une des questions à laquelle la compagnie doit faire face, est de savoir comment elle va inclure dans ses plans les technologies Sun, et ce travail n'est probablement pas achevé, » a t-elle ajouté. L'entreprise a déjà fait clairement savoir qu'elle n'avait pas de proposition immédiate à faire à Amazon, dans la mesure où l'entreprise avait abandonné les projets de Sun pour créer un service de cloud public. Selon China Martens, Oracle a le temps de formuler sa réponse. « Quoi que dise Larry Ellison, cela va se passer en plusieurs actes. Parfois aussi, Ellison dit juste ce qui lui passe par la tête. Et Oracle doit faire marche arrière et tout reformuler. C'est ce qu'ils font, lentement et soigneusement, » dit-elle. «Oracle peut avancer selon son propre rythme, mais l'entreprise doit toutefois montrer qu'elle est à l'écoute du marché et qu'elle n'est pas isolée dans sa bulle. » (...)

(10/02/2010 17:21:56)

Colt enrichit son offre cloud computing

Depuis juillet 2009, Colt, opérateur de réseau et de services télécoms a développé une plateforme de services cloud computing. Cette offre se décline en plusieurs briques, la première, baptisée Colt Managed Workspace est de type Saas (Software as a Service) avec l'accès à distance de fonctions applicatives reposant sur Sharepoint, Office, Visio, Project, Messaging ou Blackberry. La deuxième brique s'oriente vers le mode PaaS (Plateform as a Service), sous le nom Colt Cloud Infrastructures Services. Elle permet de disposer de serveurs dédiés, virtuels ou mutualisés et de capacités de stockage, s'adaptant aux besoins évolutifs des applications métiers. Enfin, la dernière brique qui vient d'être dévoilée, s'adresse aux besoins de Grid Computing des entreprises. Pour cela, Colt a noué un partenariat avec Tibco et plus exactement la solution DataSynapse (rachetée par Tibco pour 28 millions de dollars à la fin de l'année 2009). Cette dernière propose des outils de réservation et d'allocation dynamique des ressources matérielles et logicielles en environnement distribué. Au sein de cette dernière brique, on distingue en fait trois offres : - le Managed Grid Services qui est une solution d'infrastructure souple et dédiée, spécialement conçue pour les applications haute performance. - l'In Life Management Applications permet aux équipes informatiques de gérer un plus large éventail d'applications métiers et de définir des indicateurs spécifiques pour dimensionner dynamiquement leur infrastructure IT. - le Grid Extension-IaaS (Infrastructure as a Service) facilite l'extension en toute sécurité les capacités de plateformes existantes au sein d'entreprises, en permettant leur rattachement à un pool de ressources Colt à la demande. Pour Béatrice Rollet, directrice marketing de la division Colt Managed Services chez Colt France « les offres avec Tibco nous permettent de répondre à nos clients pour qui les problématiques transactionnelles, demandant une grande puissance de calcul dans un environnement de haute qualité de service, sont essentielles » et d'ajouter « les secteurs financiers et énergétiques sont très en pointe sur ces sujets, mais également les secteurs des services (jeux en ligne, grande distribution) ou des médias, à travers le passage au numérique ». (...)

< Les 10 documents précédentsLes 10 documents suivants >