Flux RSS
Infrastructure serveur

2924 documents trouvés, affichage des résultats 1261 à 1270.
< Les 10 documents précédents | Les 10 documents suivants > |
(28/12/2009 14:18:20)
Les développeurs réclament à Microsoft un Azure moins cher, facturé à la minute
A quelques jours du lancement officiel d'Azure, l'offre de cloud de Microsoft ouvrant le 1er janvier, des voix de plus en plus nombreuses se font entendre pour réclamer à Microsoft une offre d'entrée de gamme, à bas prix, voire gratuite, permettant aux étudiants et développeurs individuels d'utiliser le service pour de petits projets. Mike Wickstrand, qui supervise l'établissement de la feuille de route d'Azure, a ouvert il y a un mois un site permettant de suggérer des idées de futures améliorations et de commenter et voter sur ces idées. La proposition remportant le plus de votes (1 239 voix au 28 décembre 2009) avait été formulée par Mike Wickstrand lui-même : « Faire en sorte que ce soit moins cher d'exécuter mon très petit service sur Windows Azure ». Juste derrière, vient, avec 656 votes, « prolonger l'offre gratuite pour les développeurs ». Microsoft avait bien indiqué que le mois de janvier compterait pour une période d'essai gratuite, afin d'inciter le plus grand nombre à tester son service. Toutefois, cela implique de réaliser des développements spécifiques, qui ne pourront tourner que sur Azure. Et malgré les promesses d'une facturation à l'usage, les tarifs ne sont pas très attractifs ; comme le souligne un développeur individuel, Microsoft ne compte pas le temps de consommation de CPU, mais bien le nombre d'heures où un service tourne, quelle que soit son activité. Prohibitif pour nombre de petits projets. Surtout qu'en face, chez Google, on propose une utilisation gratuite d'AppEngine jusqu'à un seuil relativement élevé de connexions. Une facturation d'Azure arrondie à l'heure supérieure Dans le même ordre d'idées, Joannes Vermorel, fondateur de Lokad, demande à être facturé à la minute, plutôt qu'à l'heure. Cette start-up française, récemment promue au sein de BizSpark One (qui rassemble les start-up les plus prometteuses du programme Microsoft BizSpark), recourt en effet à Azure pour effectuer des calculs statistiques complexes. Joannes Vermorel écrit : « Ce que j'aime le plus avec le cloud computing (et ce dont mon activité a le plus besoin) est la capacité de régler au plus fin la puissance informatique disponible pour répondre exactement à la demande. A cet égard, je serais encore plus intéressé si Azure me laissait ajuster le nombre d'instances de façon beaucoup plus précise, c'est-à-dire de façon à être facturé à la minute et non à l'heure. Au lieu de ça, lorsque j'ai un processus qui prend 1h15, je me retrouve à devoir payer pour deux heures. Je préférerais vraiment payer pour 1h15 dans la mesure où j'ai fait l'effort d'optimiser mon processus de façon à ce qu'il ne prenne que 1h15 et non 1h55. » Parmi les autres propositions, on peut aussi noter la demande - pourtant assez basique - de gestion des envois de courriels (489 votes), la création d'un environnement bêta pour tester la version 4 de .Net (298 votes), ou encore le support de Smooth Streaming (diffusion de vidéo s'adaptant automatiquement au débit, 147 votes). (...)
(24/12/2009 14:32:11)Trimestriels Red Hat : le revenu des abonnements croît de 21%
L'éditeur de logiciels Open Source Red Hat a enregistré une hausse de 18% sur ses ventes, à 194,3 M$, sur son troisième trimestre fiscal, clos le 30 novembre, par rapport à la même période, l'an dernier. Ce sont les revenus issus des abonnements, notamment au système d'exploitation Red Hat Entreprise Linux 5 et au serveur d'application JBoss, qui tirent l'activité. Ils représentent 85% du chiffre d'affaires total et ont progressé de 21% sur le trimestre. Les revenus provenant des services et de la formation sont restés stables, à 29,914 M$ (contre 29,881 M$ l'an dernier). Pour le septième trimestre consécutif, l'éditeur a non seulement renouvelé ses vingt plus gros contrats sur le point arrivé à échéance, mais il l'a réalisé à 120% de leur valeur l'année précédente, a indiqué Jim Whitehurst, le PDG de Red Hat, lors de la présentation des résultats. Le bénéfice net de la société en revanche, a baissé de 32,5%. Il s'établit à 16,4 M$ contre 24,3 M$ sur le troisième trimestre fiscal de l'éditeur, l'an dernier. Un contrat de plus de 5 M$ Le Top 30 des contrats de Red Hat comporte quatorze contrats de plus de 1 M$ et un de plus de 5 M$, a précisé Charlie Peters, le vice-président exécutif et directeur financier de la société. Vingt-trois contrats concerne Red Hat Enterprise Linux (RHEL) 5 Advanced Platform et les huit autres JBoss. L'un de ces contrats avait été signé au départ pour le déploiement d'un environnement virtualisé. 59% des ventes de Red Hat sont réalisées sur le continent américain, tandis que 29% se font en Europe et 15% sur la région Asie-Pacifique. La durée moyenne d'un contrat est de vingt-deux mois, selon l'éditeur. Le cloud computing progresse [[page]] Le cloud computing progresse Au cours du dernier trimestre, Red Hat a gagné un certain nombre de contrats sur des projets liés au cloud computing, a reconnu le PDG Jim Whitehurst. Selon lui, un éditeur aurait signé un contrat à 6 chiffres pour utiliser RHEL comme système d'exploitation pour mettre à disposition son logiciel sous la forme d'un service sur le cloud d'Amazon (EC2, Elastic Computing Cloud). Pour son quatrième trimestre fiscal, Red Hat prévoit de réaliser un chiffre d'affaires compris entre 191 M$ et 193 M$. Les performances du troisième trimestre l'ont amené à relever ses estimations annuelles de 10 M$. L'éditeur pense que le chiffre d'affaires de son exercice fiscal 2010 se situera entre 743 M$ et 745 M$. Jim Whitehurst décèle un potentiel important de revenus pour le future avec ses solutions de virtualisation, à la fois du nouvel hyperviseur KVM, de la dernière version de RHEL, et des outils d'administration Red Hat Enterprise Virtualization. Il considère que sa suite d'administration est bien moins chère que celle de ses concurrents. Il pense toutefois que le nombre d'abonnements sera limité sur le trimestre entamé, les clients potentiels étant en phase de test du nouveau logiciel. La contribution de ces produits au chiffre d'affaires ne démarrera vraiment qu'avec le prochain trimestre fiscal. (...)
(23/12/2009 13:09:21)Plus petites, plus puissantes, les puces Atom N450 d'Intel arrivent en janvier
La sortie officielle des processeurs Atom Pineview (s'appuyant sur la plateforme Pine Trail) qui équiperont la prochaine génération de netbooks et de PC de bureau d'entrée de gamme a été annoncée pour le 4 janvier 2010 par Intel. Ces puces, plus petites et plus puissantes, avec des fonctionnalités graphiques améliorées, sont aussi plus économes en énergie, allongeant de fait l'autonomie des batteries des mini-portables.
Le module destiné à équiper ces prochains netbooks se compose d'un processeur Atom N450 associé à un chipset basse consommation créé par Intel, le NM10 Express. Sur les PC de bureau d'entrée de gamme, on trouvera plutôt le processeur Atom D410 ou le D510 dual core, également jumelé avec le NM10 Express. Conçu à l'origine pour équiper des appareils de petite taille et de faible puissance, l'Atom N450, élaboré selon le procédé de gravure "high-k metal gate" à 45nm, est la plus petite puce fabriquée par Intel. La totalité du module, chipset compris, a pu être réalisé grâce à des techniques d'intégration de plus en plus pointues associées au procédé 45 nm. Au final, Intel livre un module plus petit, plus compact, plus performant et moins cher à produire.
Le fabricant continue à miser sur la plate-forme Atom pour les netbooks en particulier, qui ont porté le marché dans cette période de crise en raison de leur prix, de leur taille et de leurs fonctionnalités. Intel s'attend aussi à une large diffusion de son processeur dans une variété de produits d'entrée de gamme, y compris des modèles très compacts, sans ventilateur et pas chers. Il faut dire que depuis le premier Atom lancé en juin 2008, le marché s'est rapidement développé puisque le constructeur a livré plus de 40 millions de puces aux principaux équipementiers et devrait atteindre les 100 millions d'exemplaires d'ici 2011. Car le succès de cette catégorie d'ordinateurs est manifeste : il s'est vendu plus de netbooks que d'iPhone d'Apple ou de Wii de Nintendo pendant cette période.
Sous Windows 7 Starter, Home Basic ou Moblin v2
La principale caractéristique de la nouvelle plateforme est donc l'intégration, dans le processeur, du contrôleur mémoire et du contrôleur graphique, une première dans l'industrie des chips X-86. Le processeur a deux puces au lieu de trois et gagne 20% de puissance, plus une réduction de taille de 60%. Au final, l'empreinte baisse de 70% et le TDP (Thermal Design Power) de 50% par rapport à la génération précédente. Soit 7 Watts pour le N450, 12 Watts pour le D410 et 15 Watts pour le D510, la variante à double coeur. Tous les processeurs sont cadencés à 1,66 GHz.
La plateforme Pine Trail pourra tourner sous Windows 7 Starter ou Home Basic, mais certains fabricants proposeront comme alternative Moblin v2, système d'exploitation basé sur Linux. Intel dit aussi avoir travaillé en étroite collaboration avec les opérateurs mobile tels T-Mobile, Vodafone, Orange et autres, devenus un vecteur de diffusion important des notebooks, pour une meilleure intégration des modems 3G. Aujourd'hui une douzaine de fournisseurs de services proposent des ultra-portables en même temps que des abonnements data mobile, et l'arrivée de la nouvelle plate-forme devrait favoriser encore davantage l'expansion de ce marché.
Dell, Fujitsu, ou encore MSI, ont déjà annoncés pour janvier leurs premiers modèles de netbooks basés sur la nouvelle puce d'Intel. (...)
L'offre cloud d'Orange reprend les bonnes recettes du Minitel
Tout le monde n'attendait plus que l'annonce officielle : c'est fait, Orange Business Services a présenté son offre de cloud, ainsi que sa feuille de route. Barbara Dalibard, patronne démissionnaire d'OBS (après 30 ans de carrière chez France Telecom, elle rejoint la SNCF pour diriger la branche TGV), a expliqué le pourquoi de ce retard à l'allumage : « On a un peu attendu parce qu'on voulait être sûr que notre équipe ait construit une légitimité forte. » Cela passe, dit-elle, par la mise en oeuvre de services applicatifs au-dessus de la simple fourniture de puissance informatique à la demande ; comme pour le Minitel, ce seront les services applicatifs proposés par Orange qui devront assurer le succès commercial. « Nous devions pouvoir gérer la couche collaboration nous-mêmes, que cela soit une preuve pour nos clients. En tant qu'opérateur, le premier service sur lequel on doit être bon, c'est la communication. » Barbara Dalibard : « Le cloud, c'est notre métier » En ouverture de la conférence de presse, Camille Mendler, du Yankee Group, a servi sur un plateau les arguments qui donnent aussi à la branche services d'Orange sa légitimité : « Lors des études que j'ai menées sur le cloud, j'ai été surprise de l'absence de questions sur la partie connexions, réseaux, accès redondants... Or, c'est absolument indispensable ! » Et Barbara Dalibard d'aligner les chiffres et l'historique de France Telecom pour expliquer combien « le cloud, c'est notre métier », quelque chose « basé sur l'ADN d'un opérateur ». Orange peut en effet se targuer de gérer 30 000 sites en VoIP, 12 millions de clients abonnés à Internet haut débit, 10 000 sites en mode Centrex... ainsi que rien de moins que « le réseau mondial le plus développé de la Terre ». Pour Barbara Dalibard, opérer un cloud est finalement très proche du métier d'opérateur. Elle énumère ainsi les compétences similaires : infrastructure mutualisée étendue, engagements sur sécurité et la qualité de service de bout en bout, opération 24x7, facturation à l'usage, gestion des services aux utilisateurs finaux, respect de la conformité réglementaire, mise à disposition d'un portail pour la gestion, les commandes et le reporting... « Cerise sur le gâteau », fait-elle remarquer, décharger les clients de la gestion de leur informatique diminue leur consommation énergétique, et contribue à leurs stratégies de Green IT. L'ambition : constituer un portefeuille global de services applicatifs en ligne facturés par Orange De façon plus discutable, Barbara Dalibard a aussi repris les propos de Camille Mendler sur la nécessité pour les entreprises de s'appuyer sur un tiers de confiance. Pour l'experte du Yankee Group, en effet, les entreprises vont probablement choisir de recourir à plusieurs prestataires. Il y aura donc des besoins en compétences techniques, mais aussi des besoins en termes d'analyse et de suivi des offres : il faudra s'assurer que les opérateurs de cloud disposent de réseaux et de serveurs redondants, de plans de continuité de l'activité et de reprise après sinistre, d'outils de surveillance, etc. En d'autres termes, « les entreprises auront besoin d'intermédiaires de confiance qui pourront intégrer, gérer, mesurer les garanties et s'appuyer sur tel ou tel en fonction des demandes des entreprises, et enfin payer les tiers ». Est-ce un nouveau rôle pour les opérateurs, s'interroge l'analyste. Bien que le profil soit plus probablement celui d'une société de conseil spécialisée indépendante, Barbara Dalibard n'hésite pas à endosser ce costume. Mais à entendre le discours de Didier Jaubert, un ancien d'IBM Global Services chargé par Barbara Dalibard de porter l'offre Cloud, ce rôle d'intermédiaire se verrait plutôt entre les éditeurs de logiciels, appelés à s'appuyer sur le cloud d'Orange pour proposer leurs offres enligne, et les entreprises. La véritable ambition de l'opérateur est en effet de constituer un portefeuille global de services applicatifs en ligne, disponibles depuis un portail unique (le "Saas Store", cf. capture ci-dessus), avec une facturation unique - soit le modèle du Minitel puis du mobile. Cloud et Saas ont beau être des concepts modernes, les vieux réflexes ont la vie dure. (...)
(18/12/2009 11:34:12)Orange annonce à son tour son offre cloud computing
C'est Barbara Dalibard, directeur exécutif d'Orange Business Services - sur le départ car elle rejoindra prochainement la SNCF, la date étant encore en négociation avoue-t-elle - , qui a présenté la feuille de route de l'offre cloud computing d'Orange Business Service (OBS ) le 17 décembre dans les locaux de France Telecom à Issy Les Moulineaux (92). « Le cloud computing est dans l'ADN des opérateurs télécoms. Nous faisons du cloud comme Monsieur Jourdain fait de la prose » décrit-elle. L'offre cloud computing sera plus précisément sous la responsabilité de Didier Jaubert, Senior Vice President Global Services chez Orange. Didier Jaubert a travaillé durant vingt ans chez IBM avant de rejoindre France Telecom. Et ce parcours est révélateur de la partie qui se joue : la lutte va avoir lieu entre les informaticiens et les opérateurs télécoms et chacun entend miser sur ses points forts pour commercialiser du cloud, sans négliger les atouts de son concurrent. « Les informaticiens sont sur le Build, les opérateurs sont sur le Run et ils savent gérer un réseau enrichi pour le cloud. Nous sommes dans la suite de la convergence et je partage la vision de Cisco avec leurs nouveaux serveurs qui font aussi routeurs » décrit Barbara Dalibard. Quelle sera l'importance en termes de revenus de ces offres de cloud dans l'activité d'OBS ? « Le cloud fait partie de notre activité Real Time Business, qui devrait représenter 15 à 20% de notre business. Si nous réalisons 1 milliard d'euros avec l'activité Real Time Business, ce serait bien » répond Barbara Dalibard. Photo : Barbara Dalibard, directeur exécutif d'Orange Business Services, a présenté la feuille de route de l'offre cloud computing, le 17 décembre. [[page]] L'offre d'Orange se décline à la fois en services Iaas (Infrastructure as a service) et en Saas (Software as a service). Déjà disponible en ce qui concerne l'Iaas, on trouve le service « Flexible Computing » qui a été lancé en juin 2009. « Nous avons déjà des clients » indique Didier Jaubert. Il s'agit d'une offre d'hébergement de machines virtuelles - typiquement sous VMWare - via un portail de gestion, de contrôle et de provisionning. Une démonstration réalisée en direct par les équipes techniques d'Orange a permis d'illustrer cette offre. On achète du Ghz (en clair de la puissance processeur, et un nombre de processeurs), de la mémoire et de l'espace disque. Via le portail, on peut gérer l'arrêt ou le démarrage de la machine virtuelle. On définit plusieurs réseaux virtuels dans la salle informatique (des Vlans) de l'opérateur et on place les VM (Virtual Machine) dans le Vlan de son choix. Puis, on affecte l'adresse IP. Ceci dit, à côté de cette offre Flexible Computing, « Ce sont les services de cloud privés - conçus sur mesure pour nos grands clients - qui ont le plus de succès » précise Didier Jaubert. Les grandes entreprises sont plus prudentes tandis que ce sont les petites entreprises qui optent pour les offres dans le nuage public. Les équipes des Labs d'Orange de Lannion ont montré ensuite la prochaine étape, attendue d'ici un an : l'affectation dynamique de puissance à la demande dans le nuage, via des interfaces de programmation ou API (Application Programming Interface), et une facturation à l'usage. L'exemple présenté concerne un infographiste travaillant sur des images 3D pour le cinéma qui a besoin de puissance de calcul à la volée. Depuis son poste de travail dans son entreprise, il lance son logiciel de travail et une commande établit un tunnel IPSec avec Orange, via lequel une machine virtuelle est lancée dans le centre informatique de l'opérateur pour la durée du calcul afin de doper la puissance CPU pour un moment. La VM est donc lancée rapidement. Cette offre demande a priori d'implanter des services au sein des routeurs, et les équipes des Orange Labs ont indiqué qu'aussi bien Cisco que Juniper Networks avaient fait en sorte que le lancement de ces API soient intéropérables entre leurs équipements, utilisés lors de la démonstration. [[page]] A l'heure où l'offre d'Orange se précise, que pense Didier Jaubert de l'offre EC2 d'Amazon, où il suffit de sortir sa carte bleue pour acheter une machine virtuelle, que l'on peut louer pour l'espace d'un test durant quelques heures ? « Ce n'est qu'un petit segment du marché. C'est très grand public. Les locations pour ce qui nous concernent sont au moins d'un mois. Nous ne ciblons pas la réponse à du test sur trois jours, par exemple. Amazon c'est juste de la location de Computing Power. Il faut une capacité de mutualisation importante. Mais nous utilisons nous-même l'offre d'Amazon quand nous avons des pics de charge, par exemple, pour du développement. » Autre axe de développement chez Orange : le Saas. Cette offre recouvre déjà aujourd'hui des services de collaboration as a service, de postes de travail virtuel (les applications sont dans le nuage, Orange annonce 1000 utilisateurs), de téléphonie sur IP hébergée en mode Centrex (Orange annonce 10 000 sites équipés en Centrex IP) ou de messagerie hébergée avec Hosted Exchange à base de serveurs Exchange de Microsoft (Orange gère 1 million de boîtes aux lettres). La prochaine offre qui sera lancée concerne Business Productivity Online Suite (BPOS) de Microsoft. Cette offre de messagerie dans le Cloud de Microsoft (entièrement gérée par Microsoft) sera enrichie par de la sécurité et de la téléphonie sur IP d'origine Cisco par Orange. Mais le futur pour Orange sera plutôt du côté de « Saas Store ». Un magasin d'applications en ligne, dans lequel l'utilisateur peut piocher les applications qui l'intéresse. Un worflow permet à l'employé d'une grande entreprise de faire valider par sa hiérarchie l'accès à une application donnée. Le catalogue d'applications est en cours de construction par Orange qui négocie avec des éditeurs, avec une sortie prévue entre fin 2010 et début 2011. La démonstration a été réalisée avec l'application de CRM, Sugar CRM. D'autres outils ont été utilisés lors de la démonstration tels que Zoho CRM, le traitement de texte Zoho writer ou Blender, un outil 3D. Le service proposé par Orange repose sur un poste de travail rénové pour l'utilisateur, vers lequel on pousse les applications hébergées dans le nuage géré par Orange ou d'autres fournisseurs. Le PC nouvelle génération héberge alors plusieurs environnements professionnels ou d'ordre privé. Dans ce cadre, Orange entend être le tiers de confiance qui gère la relation d'un côté avec les utilisateurs et de l'autre avec les éditeurs de logiciels, afin d'établir la facturation à l'usage. Un modèle qui n'est pas encore accepté par les éditeurs reconnaît Orange mais qui leur permettrait pourtant de se différencier de la concurrence grâce à une nouvelle politique tarifaire, conclut l'opérateur. (...)
(17/12/2009 16:55:20)Intel accusé de pratiques déloyales par la Commission de la concurrence américaine
La Commission de la concurrence américaine (FTC, Federal Trade Commission) a annoncé hier, 16 décembre, qu'elle avait engagé une procédure à l'encontre d'Intel. Le fabricant californien de processeurs est accusé d'avoir, pendant dix ans, abusé de sa position dominante pour étouffer la concurrence et renforcer son monopole. Intel aurait délibérément mené une stratégie destinée à «paralyser» les menaces concurrentielles, fait fi des règles du jeu et des lois de protection du marché, selon Richard Feinstein, directeur du bureau de la concurrence de la FTC. « L'action que vient de lancer la Commission vise à remédier aux dommages causés par Intel à la concurrence, à l'innovation et, au bout du compte, au consommateur américain », explique-t-il dans un communiqué diffusé hier. La plainte du FTC allège que le fabricant a usé à la fois de menaces et d'incitations auprès des plus importants constructeurs de PC (Dell, HP, IBM) pour les contraindre à ne pas recourir aux processeurs d'autres fabricants, notamment en leur proposant des partenariats d'exclusivité et des offres packagées de produits. Elle souligne par ailleurs que le Californien a, en 2003, secrètement modifié un logiciel clé, le compilateur, afin que les performances des autres puces s'en trouvent comparativement réduites. Une stratégie répliquée dans le domaine des processeurs graphiques, à l'encontre d'acteurs comme Nvidia, indique encore la Commission. Une action malavisée selon Intel Intel juge que l'action de la FTC est malavisée, qu'elle s'appuie principalement sur des arguments ajoutés au dernier moment et tend à créer de nouvelles règles commerciales. C'est un dossier qui aurait pu être bouclé sans plainte. Une enquête est en effet engagée depuis plusieurs années, ont précisé les commissaires Jon Leibowitz et Thomas Rosch. Cette enquête a donné lieu à d'importants débats au sein même de la Commission et à de nombreuses rencontres avec Intel et les autres parties concernées par le dossier. Les discussions ont été menées assez loin entre Intel et la FTC, mais elles ont achoppé sur les solutions inhabituelles proposées par l'instance fédérale pour résoudre le dossier, a expliqué Doug Melamed, vice président senior d'Intel lors d'une conférence de presse. « Il apparaît à l'évidence que [la FTC] ne comprend pas certains aspects importants de l'industrie informatique. Elle propose des remèdes qui empêcheraient Intel de mener son activité de façon légitime ». La Commission de la concurrence ne cherche pas à obtenir le versement d'une amende, mais souhaite un changement d'attitude de la part du fabricant californien. Par exemple, un mode de tarification différent, un nombre réduit d'offres packagées et un éventuel partage de la propriété intellectuelle, a suggéré notamment Richard Feinstein, de la FTC. AMD a salué l'action menée, estimant qu'il s'agit de bonnes nouvelles pour les consommateurs. La plainte doit être examinée en septembre 2010 par un juge de la FTC. (...)
(17/12/2009 12:33:19)12 téraflops dans une station de travail universitaire
En faisant une recherche sur Bing Images avec le mot supercomputer, vous n'obtiendrez rien de semblable à la dernière création de l'Université d'Anvers : une super station de travail baptisée Fastra II qui dispose d'une puissance de calcul de plusieurs téraflops ! Soit l'équivalent d'une baie informatique, mais à un prix beaucoup plus compétitif : 6000 euros.
Le premier super PC de l'Université d'Anvers, la Fastra, intégrait 4 cartes graphiques biprocesseur (soit 8 GPU au total). Par comparaison, le Fastra II a un total de 13 unités de calcul graphique (six GTX295 double GPU et une GTX275 mono GPU). Tout cela permet donc à la Fastra II de fournir une puissance de calcul de 12 téraflops (12 300 milliards d'opérations en virgule flottante par seconde). La plupart des ordinateurs fournissent quelques gigaflops (milliards d'opérations en virgule flottante par seconde ), et les plus rapides des supercomputers du TOP500 arrivent à 1000 billions. Il faut toutefois relativiser les performances de cette super station de travail qui correspond à un usage bien spécifique et qui ne prend pas en compte certaines contraintes propres aux applications métiers de type décisionnelle. La Fastra II utilise toute cette puissance de calcul graphique pour afficher des résolutions HD, et en 3D, de structures osseuses. Bien que toute cette puissance ne soit pas facilement exploitable pour des travaux courants dans un bureau d'études, elle ne manquera pas d'impressionner les passionnés de calcul intensif.
Les chercheurs de l'Université ont effectué quelques modifications sur les composants pour créer Fastra II, dont un boitier sur mesure pour accueillir la carte mère et toutes les cartes graphiques. Un bios spécial ainsi qu'un noyau Linux 64 bits personnalisé ont également été développés pour gérer cette armada . La Fastra II est toujours en phase de développement et les améliorations futures peuvent être consultées sur le site Web officiel (...)
Microsoft s'offre des outils d'automatisation des processus IT pour le cloud
Pour renforcer ses outils de gestion des environnements virtualisés, Microsoft vient de racheter l'éditeur canadien Opalis Software. Installé à Toronto, celui-ci a développé des logiciels d'automatisation des processus IT, Opalis Integration Server, qui viendront compléter les capacités de gestion des datacenters de la suite d'administration System Center de Microsoft, pour les environnements physiques, virtuels et de cloud computing. Brad Anderson, vice président de la division Management & Services de Microsoft, explique sur l'un des blogs TechNet de l'éditeur que les logiciels d'Opalis facilitent la tâche des équipes informatiques en automatisant les processus IT complexes avec l'objectif de réduire les coûts d'administration et les temps d'intervention. « C'est particulièrement important pour nos clients qui mettent en place des environnements virtuels très automatisés et évolutifs. » Et de citer Gartner qui prédit qu'en 2010, au moins 50% des tâches d'automatisation et de workflow autour des infrastructures de serveurs virtualisées s'appuieront sur des outils de type 'Run Book Automation' (RBA). Opalis, distribué en France par 2SI Systèmes Distributeur exclusif des logiciels Opalis en France, la société française 2SI Systèmes explique que ces outils permettent d'automatiser les tâches récurrentes techniques ou métiers, au travers de scénarios construits sans codage, via une interface graphique. Sur l'Hexagone, 2SI Systèmes revendique quelque 150 implémentations de l'offre : surveillance d'applications critiques ou métiers, de serveurs de fichiers, de circuits d'impression, de bases de données, de sites Web... Selon Brad Anderson, Microsoft aurait retenu Opalis parce que ses logiciels sont simples à utiliser et à déployer et qu'ils donnent rapidement des résultats. Ces outils s'intègrent déjà avec la suite System Center et ils vont permettre à cette dernière de s'interfacer avec d'autres infrastructures logicielles, notamment celles de CA, BMC et HP. L'offre comprend des workflows prépackagés pour les tâches les plus courantes de l'administration d'un datacenter : automatisation du guide d'exploitation, gestion du cycle de vie d'une machine virtuelle, prise en charge des tickets d'incident. Une majorité de clients d'Opalis seraient aussi des utilisateurs de System Center, assure Brad Anderson. L'éditeur canadien va continuer à assurer la maintenance de sa base installée. Rappelons par ailleurs que Microsoft a annoncé la semaine dernière qu'il fusionnait ses divisions Windows Azure et Windows Server. (...)
(11/12/2009 16:41:31)Microsoft fusionne ses divisions Windows Azure et Windows Server
Azure est mature, et il représente le futur. Tel est le message que chacun peut entendre dans la dernière annonce de Microsoft concernant son offre de cloud : l'éditeur a décidé de fusionner ses divisions Windows Azure et Windows Server, formant la « Server & cloud division » (SCD). L'équipe Windows Azure était jusqu'à présent sous la responsabilité de l'architecte en chef, Ray Ozzie, qui dirige les projets en développement. Le fait que Microsoft en donne le contrôle à Bob Muglia, patron de la division Server & Tools, démontre qu'Azure est bien passé de la phase R&D à celle de produit commercial, prêt pour l'exploitation - son lancement officiel est d'ailleurs prévu le 1er janvier prochain. Le deuxième message contenu dans cette annonce, le plus important, concerne le positionnement de Windows Azure : l'intention de Microsoft est de proposer de déployer au choix les applications chez soi, sur Windows Server, et/ou dans le cloud, sur Azure, et/ou bien encore chez soi mais dans un cloud privé, conçu avec les technologies Azure. Microsoft est en effet dans une position unique sur le marché pour offrir ce type de déploiement hybride. D'ores et déjà, l'éditeur remodèle ses outils (l'atelier de développement Visual Studio, la console d'administration Systems Management Center...) pour tenir compte de cette évolution. Pour Hasan Alkhatib, architecte senior de l'équipe Azure, mettre en place un cloud privé n'apportera pas tous les bénéfices du cloud aux entreprises. Néanmoins, les technologies devraient être disponibles dans le courant de 2010. S'exprimant à l'occasion d'une conférence tenue dans le centre de R&D de Microsoft à Cambridge (Massachusetts), Hasan Alkhatib a aussi donné quelques détails sur 'Sydney', projet de sécurisation d'Azure à peine évoqué par Bob Muglia lors de la PDC (conférence des développeurs professionnels, à Los Angeles), le mois dernier. Le projet Sydney vise à renforcer l'isolation entre les ressources utilisées par plusieurs clients du Cloud, ainsi qu'à créer des liens sécurisés - une sorte de réseau privé virtuel, a expliqué Hasan Alkhatib - entre les datacenters des entreprises et ce qu'elles utilisent dans Azure. La bêta du projet devrait sortir elle aussi courant 2010. (...)
(10/12/2009 16:56:11)Microsoft, Cisco, IBM et d'autres créent un club du cloud
Les membres fondateurs de ce club regroupent des sociétés qui proposent des plateformes cloud ainsi que les entreprises qui utilisent ces services. Deux organismes de l'industrie, Distributed Management Task Force et IT Service Management Forum, sont aussi impliqués. Le TM Forum, une association professionnelle qui se consacre à l'amélioration des processus commerciaux entre les entreprises de télécommunications et leurs fournisseurs est à l'origine de cette initiative. « Une des questions importantes que le Conseil s'attachera à résoudre est la frilosité actuelle des entreprises », a déclaré Gary Bruce, un chercheur chez BT. Le conseil a d'ailleurs déjà décidé de travailler sur des solutions normalisées autour de différentes couches de cloud, y compris la virtualisation, la gestion et les couches de contrôle, de sorte que les entreprises puissent plus facilement porter leurs services d'un fournisseur de cloud à un autre, explique-t-il. En outre, les entreprises sont très préoccupées par les questions de sécurité, de localisation des données et de fiabilité. « Le Conseil étudiera les problèmes et déterminera la meilleure manière de les traiter", précise-t-il. Le conseil travaillera également sur les problèmes de performance et de temps de latence. Curieusement, un des grands absents de ce club est Amazon, portant l'un des chefs de file dans le domaine des services cloud. Contactée par la rédaction, une porte-parole d'Amazon a refusé, pour l'instant, de nous expliquer les raisons de cette absence. Il est bon de préciser qu'Amazon tente également d'éliminer les obstacles au développement du cloud. Mardi dernier, la société a par exemple mis en ligne un outil permettant de comparer les coûts d'utilisation de ses services cloud EC2, l'hébergement du projet en interne ou en utilisant une installation partagée. Amazon a également publié un livre blanc qui décrit les coûts directs et indirects dans la gestion d'un centre de données. IBM et Microsoft n'a pas répondu aux demandes de commentaires sur leur implication dans ce club du cloud. Le TM Forum, qui organise une conférence sur le Web le 16 décembre prochain, dévoilera à cette occasion plus de détails sur ce club. (...)
< Les 10 documents précédents | Les 10 documents suivants > |