Flux RSS
Cloud computing
904 documents trouvés, affichage des résultats 691 à 700.
| < Les 10 documents précédents | Les 10 documents suivants > |
(14/06/2010 09:13:06)
Stockage, réseaux, serveurs... Dell renforce ses gammes
Pour améliorer son offre entreprise, Dell étoffe justement sa gamme de stockage issue du rachat d'EqualLogic, annonce la version 5 du firmware de ces produits, dévoile des serveurs lame et rack 2U bi sockets et ajoute des switch Juniper rebadgés à son catalogue. Une montée en puissance progressive pour accompagner la transformation des datacenters vers le cloud.
Déjà associé à plusieurs équipementiers comme Brocade ou Blade Technologie, Dell qui a annoncé un partenariat avec Juniper en octobre dernier, a dévoilé cette semaine ses premiers produits basés sur JunOS, à savoir les core switch PowerConnect J-EX8208 et J-EX8216, un commutateur empilable, le J-EX4200, et l'appliance d'administration PowerConnect J-SRX100. Ces produits Juniper rebadgés Dell sont attendus en juillet prochain à des prix non communiqués. L'intégration de ces produits permet à Dell de proposer un choix plus large à ses clients. La société a également étoffé sa gamme issue de son partenariat avec l'équipementier de San Jose, avec l'annonce de son premier commutateur de coeur de réseau Brocade, le B-RX16 (38 500 $), et du PowerConnect 8024 (15 000 $), le premier switch 10 Gigabit Ethernet au catalogue de la compagnie texane. Deux cartes Fibre Channel 8 Gigabit, les Brocade 815 et 825 complètent le tableau.
Dans le même temps, Dell a présenté ses baies de stockages hybrides et un nouveau firmware pour sa gamme NAS iSCSI EqualLogic. « Disponible gratuitement pour tous les clients qui bénéficie d'un contrat de support, le firmware 5.0 peut être intégré sans interruption de service » précise Pierre Fournial, responsable de l'activité stockage chez Dell. Il suffit de procéder un contrôleur après l'autre. Cette version 5 apporte, par exemple, l'équilibrage de charge automatique entre les SSD et les disques durs rotatifs. La baie SAN hybride PS6000XVS, justement dévoilée, tire partie de cette fonctionnalité et permet aux entreprises de répartir « intelligemment » les données entre SSD et disques durs. La baie analyse en fait les données les plus souvent demandées pour les placer sur le support le plus rapide. En utilisant un algorithme très fin, le firmware peut changer les données plus fréquemment que la plupart des d'autres systèmes de gestion des ressources de stockage, nous explique Pierre Fournial.
Illustration : baie de stockage SAN PS6000XVS, crédit Dell
[[page]]
Dell proposait déjà des baies équipées de SSD, mais la série PS6000XVS permet de combiner les deux technologies (disques rotatifs à 15 000 t/m et mémoire Flash) pour permettre aux entreprises d'introduire progressivement les supports SSD. Deux modèles sont en fait proposés par Dell, le PS6000XVS d'une interface iSCSI à 1 Gigabit, et le PS6010XVS à 10 Gigabit. Disponibles début aout, ces produits seront commercialisés à partir de 50 000 $.
Le firmware 5.0 d'EqualLogic apporte également une intégration plus étroite avec les plates-formes de virtualisation de VMware. Un client de Dell qui a été déjà testé le nouveau firmware sur ses baies EquaLogic estime que cela renforce considérablement l'efficacité. Selon Joshua Wright, DSI de la société Bomgar, ce firmware 5.0 a permis de décharger VMware de certaines fonctions clefs. Surtout, il permet la création et le clonage de machines virtuelles au sein de la baie de stockage où elles sont hébergées. Bien que ces machines virtuelles ne contiennent généralement que le système d'exploitation, Windows 2008 OS occupe une grande partie de l'espace (jusqu'à 15 Go), souligne Joshua Wright. Et lorsque l'hyperviseur VMware ESX travaille sur ces questions, il exige de grosses ressources sur les serveurs et sur le réseau. En déchargeant, VWmare de ces fonctions, les opérations se déroulent beaucoup plus rapidement et l'hyperviseur comme le réseau peuvent être utilisés pour d'autres choses.
« Quel système est mieux optimisé pour l'exécution d'une tâche particulière? Il est évident qu'une baie de stockage va être le meilleur système pour effectuer des opérations de stockage, » avance le responsable informatique. La société Bomgar, qui emploie 145 personnes à Ridgeland dans le Mississippi, prévoit de déployer sur toutes ses baies le nouveau firmware dès qu'il est disponible. Dell a annoncé qu'il sera disponible mi-juin pour tous les clients EqualLogic.
[[page]]
Le texan a également mis à jour sa gamme de stockage d'entrée de gamme avec les baies MD3200 SAS (Serial-Attached SCSI) et MD3200i (iSCSI) qui remplacent les MD3000 et MD3000i. Elles seront également disponibles mi-juin à disponibles la semaine prochaine à partir de 11 000 $ environ.
Terminons avec les annonces serveur et la version 3.0 de l'outil d'administration CMC. Après les lames quadri sockets, Dell commercialise la M710HD une lame demi-hauteur bi sockets Intel Xeon 5600 équipée de 18 connecteurs Dimm. En complément, la compagnie propose la M610X, une lame pleine hauteur avec des ports PCI Express pouvant accueillir des GPU pour le calcul intensif. Enfin, le serveur 2U R715 renforce la présence d'AMD chez Dell avec un système bi socket Magny-Cours doté de 18 slots Dimm. « Un bon rapport coût/prix » précise Pierre Fournial, « d'autres systèmes AMD sont également prévus en fin d'année. »
Avec cette salve d'annonces, Dell marque au plus près ses principaux concurrents. Et grâce à ses partenariats avec Juniper et Brocade, Dell est plus en mesure de se battre à armes égales avec les grands fournisseurs de datacenters que sont Cisco et Hewlett-Packard.
(...)(11/06/2010 11:44:39)HP s'associe à une filiale d'EDF pour vendre ses conteneurs
Pour déployer ses serveurs en conteneur - ses fameux Pod -, HP s'associe à EDF Optimal Solution (EOS), une filiale d'EDF. Reprécisons à cette occasion qu'il ne s'agit pas vraiment de datacenter dans un conteneur puisque les indispensables et très encombrants équipements électriques et de refroidissement sont installés à proximité des Pod posés sur une dalle de béton dans un hangar ou un garage (voir illustration). Un concurrent, APC, propose des conteneurs datacenter intégrant des générateurs et des refroidisseurs. Google, de son coté, dissémine également à travers le globe des milliers de datacenters conteneurisés conçus en interne et dépourvus de système de refroidissement.
Les principaux avantages de ces solutions sont leur coût, jusqu'à 30% moins élevé en construction qu'un centre de calcul classique, et leur rapidité de déploiement, de 4 à six mois pour mettre en route un datacenter puisqu'il n'est pas nécessaire de demander un permis de construire pour installer containers et équipements additionnels. Selon Jean-Paul Allibert, directeur général services et technologie chez HP, la législation impose une simple déclaration pour l'aménagement de ce type de constructions techniques reposant sur un parking ou une dalle en béton.
[[page]]
Dans l'association HP/EOS, les tâches sont clairement partagées. Le premier fournit les containers Pod et les équipements informatiques et réseaux et le second apporte son expertise dans les installations électriques et les systèmes de refroidissement essentiels au bon fonctionnement des Pod. Un guichet unique est mise en place dans les deux sociétés pour régler rapidement les problèmes rencontrés pas les utilisateurs. Les deux entreprises qui travaillent ensemble depuis un an déjà formalisent ici leur partenariat dans la fourniture de ressources informatiques globales. Et pour gagner du temps, HP peut fournir des containers prêts à l'emploi avec les câbles et les serveurs déjà installés.
Selon Pascal Lecoq, responsable datacenter chez HP, cette solution automatisée équivaut à un datacenter classique de 400 m2 et plusieurs dizaines d'audits sont en cours pour répondre à différents besoins en France. Installation complémentaire ou déploiement régional dans les métiers des télécoms, de l'informatique de gestion, de la simulation scientifique, du calcul financier ou pour la création d'un cloud. « Le marché des Pod est très récent, mais la croissance est devenue très forte. » Selon Jean-Paul Allibert, près d'un tiers des datacenters en France seront réaménagés ou même entièrement reconstruits pour offrir une meilleure efficience énergétique. C'est un des points mis en avant par HP et EOS pour promouvoir leur solution datacenter in the box qui permettrait de réduire d'environ 30% la facture électrique et donc la production de Co2. « Dans un datacenter classique, plus de la moitié de l'électricité utilisée est perdue », explique Jean-Paul Alibert. « Avec nos solutions, les économies d'énergie réalisées sur 15 ans justifient la construction d'un nouveau datacenter. »
Près de 47 brevets ont été déposés par HP sur les technologies employées dans ses Pod de 6 ou 12 mètres disponibles à la vente ou à la location. Il faut compter de 3 à 5 millions d'euros pour une installation avec 20 kms de fibre optique (600 000 € pour le petit Pod seul sans le matériel informatique).
(...)(10/06/2010 18:40:06)Exchange et SharePoint toujours en version 2007 dans le cloud
La messagerie Exchange 2010 a été livrée en novembre 2009 par Microsoft et la version 2010 du portail SharePoint est sortie en mai dernier. En revanche, les versions cloud de ces offres, accessibles à travers l'offre BPOS (Business Productivity Online Services), fonctionnent toujours sur la base des versions 2007.
L'objectif de Microsoft est d'offrir en ligne à ses clients, à l'identique, les fonctions qu'ils pourraient déployer en interne sur leurs serveurs. Mais... « Cela nous prend un peu de temps de mettre à jour les datacenters avec les nouvelles versions d'Exchange Server et de SharePoint Server », a récemment reconnu Chris Capossela, senior vice président du groupe Information Worker Product Management, chez Microsoft. « A la fin de l'année, nos plus importants clients en ligne disposeront des versions mises à jour, qui fonctionnent avec les serveurs 2010 ».
BPOS évolue chaque trimestre
Interrogé de nouveau sur ce point, cette semaine, par nos confrères de Network World, Microsoft a fourni une estimation légèrement différente, mais qui situe toujours l'essentiel de la mise à jour pour la fin de l'année. « BPOS est complété tous les trimestres de nouvelles fonctions et possibilités », a expliqué un porte-parole de Microsoft dans un courriel. Il confirme que l'éditeur a déjà mis à disposition des fonctions de la version 2010 pour ses plus grands clients en ligne. « Nous poursuivrons la livraison de la technnologie 2010 plus largement à l'ensemble de notre base client qui peut tabler sur une 'preview' de ces fonctions un peu plus tard dans l'année ».
Les entreprises qui attendent impatiemment d'exploiter Exchange 2010 et SharePoint 2010 dans le cloud peuvent s'adresser à un prestataire qui propose déjà des versions hébergées des technologies 2010.
Sur TechEd 2010, cette semaine, Microsoft a montré quelques-unes des possibilités qu'offrira Communications Server 14, dont la livraison est prévue pour le deuxième semestre. Des fonctions que les utilisateurs de BPOS ne verront que l'an prochain.
Illustration : Microsoft Exchange Online
VCS, la fabrique de convergence de Brocade
Depuis le rachat de Foundry Networks en 2008, Brocade est engagé sur le chemin de la convergence réseau. Brocade One est aujourd'hui l'appellation marketing de cette stratégie chez l'équipementier qui ambitionne de simplifier la gestion des datacenters et de baisser les coûts d'administration. « L'ensemble du réseau est votre centre de données; un réseau unique simplifié qui n'impose pas de rupture technologique », explique Régis Harault directeur de Brocade France. L'équipementier cherche en effet à transformer les équipements physiques des centres de calcul en ressources virtuelles allouées ou réallouées via l'intermédiaire d'un VAL (Virtual Access Layer) reposant sur une machine virtuelle (QoS) et sur les switchs VCS (Virtual Cluster Commutation). Selon Bruno Guiet, architecte solutions EMEA chez Brocade, la solution VAL permet de déplacer les machines virtuelles au sein du datacenter en conservant tous les attributs de la VM. Reposant sur un standard ouvert, VAL ne supportera toutefois pas avant un an ou deux la norme IEEE Edge Virtual Bridging, qui inclut l'agrégation de port Ethernet virtuel (VEPA).
Principaux avantages des VCS, un temps de latence réduit, puisque les données circulent moins au sein du datacenter et une meilleure utilisation des ports Ethernet. Il n'y aura pas de support du protocole Spanning Tree en interne mais de Trill, explique Bruno Guiet. « On a davantage affaire à un super Ethernet qu'à un Ethernet », souligne ce dernier. Ce protocole améliore le transport des trames en utilisant tous les chemins disponibles et exploite tous les ports des switchs. VCS apporte également une fonctionnalité
baptisée insertion dynamique de service, permettant de reconfigurer automatiquement à 90% des éléments et des services en récupérant et en réinterprétant les scripts. Comme chez l'équipementier Arista, chaque switch VCS a une base de données embarquée permettant de conserver les informations sur les différents équipements du réseau. Un commutateur VCS devrait supporter jusqu'à 1000 ports Ethernet 10 Gigabits et 10 000 VM. Un cluster de switch VCS pouvant être géré comme un seul commutateur logique dans un datacenter.
[[page]]
Attendue en fin d'année, la plate-forme VCS reposera pour commencer sur trois commutateurs basés sur de nouveaux circuits ASIC et un système d'exploitation baptisé Brocade Network OS. Bâti sur un coeur Linux, ce dernier assurera la convergence entre Fibre Channel et services IP. Une architecture similaire à l'architecture de convergence de Cisco, les commutateurs Nexus animés par NX-OS.
Uniquement compatibles avec les équipements réseaux de Brocade et de Foundry Networks déjà présents dans les datacenters, les trois commutateurs VCS comprennent un switch 2U 60 x 10G, un 1U 48 x 10G et un 1U 24 x 10G . Tous les ports fonctionnant à
10G, précise Bruno Guiet. Les commutateurs 60 et 24 ports sont attendus au quatrième
trimestre 2010. La version 48 ports arrivera quant à elle au premier trimestre de 2011.
Brocade devrait également commercialiser un système de gestion des environnements Brocade One au troisième trimestre de cette année. Cette solution proposera le support d'Ethernet, de la Fibre Channel et du Data Center Bridging avec les solutions de stockage et les systèmes d'hyperviseur d'IBM, de HP, de Dell, d'EMC, de Microsoft et de VMware. Ce gestionnaire donnera une visibilité globale des VCS sur le réseau.
TechEd 2010 : il manque encore des fonctions à Azure
Parmi les fonctions qui font encore défaut aux déclinaisons Azure des produits Microsoft, les plus importantes arriveront dans les 12 à 18 mois, a assuré Bob Muglia, le patron de la division Serveurs & Outils de Microsoft, sur l'édition 2010 du TechEd. « Cela ne veut pas dire que toutes les fonctions seront là, mais les principaux manques commenceront à être comblés », a-t-il prudemment précisé.
Pour attester des avancées en cours, Bob Muglia a listé un certain nombre d'éléments qui n'ont complétés que récemment les versions Azure. Par exemple, la prise en compte dans la base de données SQL Server des coordonnées de géolocalisation, ou encore le support de la version 4 de l'environnement de développement .Net. En revanche, il faut encore ajouter d'autres fonctions, telles que SQL Server Integration Services.
Capacité d'ajustement, bascule automatique
Dans son approche du cloud, Microsoft a choisi de se focaliser sur des attributs spécifiques à ce type d'infrastructure, comme la capacité d'ajustement automatique en fonction du nombre d'instances requises, quelle qu'en soit l'ampleur. Ou encore l'aptitude à basculer de façon automatique en cas de défaillance de l'un des sites. « Nous avons décidé de construire la plateforme avec ces attributs, quitte à ne pas pouvoir fournir tout de suite certaines autres fonctions dont vous auriez besoin ».
Porter des applications dans le cloud implique bien plus que de rendre simplement le logiciel accessible en ligne, a expliqué Bob Muglia. « Quand nous avons bâti Windows Server Azure, nous ne nous sommes pas contentés de prendre Windows Server et de l'héberger dans un datacenter. Nous avons déterminé ce dont nous aurions besoin pour construire une plateforme de cloud à l'échelle mondiale ».
Illustration : Bob Muglia, président de la division Server & Tools de Microsoft, lors de la PDC (Professional Developpers Conference) de Los Angeles en novembre 2009 [crédit photo : Microsoft][[page]]
L'éditeur s'est donc principalement concentré sur l'évolutivité d'Azure, pour lui donner les capacités de conserver de multiples copies des données à portée de main, et atteindre les autres pré-requis qui constituent les avantages du cloud computing.
« Nous démarrons d'abord avec un sous-ensemble et nous ajoutons des fonctions au fur et à mesure », explique Bob Muglia en présentant l'édition SQL Server Azure comme un exemple de cette approche. Le dirigeant fait remarquer qu'une seule instance de SQL Server Azure est exploitée à travers des milliers d'ordinateurs dans six datacenters dans le monde. « Personne n'a fait tourner une seule base de données sur autant de serveurs distribués », a-t-il affirmé sur TechEd.
Montée en charge réussie lors du Super Bowl Sunday
L'un des premiers utilisateurs d'Azure a été la chaîne de restauration américaine Domino's Pizza, indique Prashant Ketkar, directeur produit et marketing de Windows Azure. En janvier dernier, lors du Super Bowl Sunday (rencontre de football américain extrêmement suivie qui représente aussi la 2e journée record de consommation alimentaire aux Etats-Unis, après Thanksgiving), le fournisseur a pu faire monter en charge son système de commande en ligne pour prendre en compte le trafic supplémentaire.
Porter vers Windows Server Azure une application fonctionnant à l'origine sur Windows Server prend du temps, avertit Prashant Ketkar. A la fin de l'année, Microsoft fournira la possibilité de procéder à ces transferts sans reconfiguration, mais ces applications ne pourront pas tirer bénéfice des capacités de montée en puissance d'Azure, ni de ses autres fonctions natives.[[page]]
Pour Robert Wahbe, vice président corporate, responsable du marketing pour la division Servers & Tools, l'approche de la plateforme Azure est plus sophistiquée que celle de concurrents comme Google et Amazon, en raison du fait qu'elle fournit un seul environnement pour toutes les instances de logiciels, que ceux-ci fonctionnent en interne sur Azure, ou qu'ils tournent sur une autre plateforme de cloud basée sur le framework .Net. « Personne d'autre ne fait cela », avance-t-il.
Jusqu'à présent, ce sont les applications de messagerie et de collaboration qui ont été le plus souvent portées dans le cloud. Les applications plus complexes, telles que les ERP, y sont moins courantes. [NDLR : à noter, dans ce domaine, que l'éditeur Lawson propose à ses clients de déployer ses solutions ERP dans le cloud EC2 d'Amazon]
Les petites entreprises iront probablement vers le cloud avant les grandes, prévoit Bob Muglia, notamment parce qu'elles développent moins souvent leur propres applications.
Amazon crypte CloudFront, mais fera payer plus cher les utilisateurs
CloudFront sert à distribuer tous types de fichiers qui peuvent transiter via HTTP, y compris les images, l'audio, la vidéo, les fichiers multimédias ou les téléchargements de logiciels. Le service, toujours en bêta test, peut aussi diffuser des flux audio et vidéo sur Internet. Amazon utilisera le cryptage en cas de récupération de données depuis son service de stockage dans le Cloud S3 (Simple Storage Service), de sorte que le contenu soit protégé pendant tout le trajet entre le lieu où il est stocké et l'ordinateur de l'utilisateur. Le HTTPS, utilisé pour le transfert d'informations sensibles ou pour éviter les avertissements de sécurité de certains navigateurs lorsqu'ils détectent un mélange de contenu crypté et standard, selon Amazon, permet essentiellement de garantir l'intégrité du contenu.
Le prix de la sécurité
Selon la liste de tarifs d'Amazon, le coût des requêtes HTTPS a été fixé à 0,01 $ US pour 10 000 requêtes. Comparativement, le coût des requêtes pour le trafic HTTP standard se situe à 0,0075 $ pour 10 000. Selon Amazon, le tarif HTTP a été réduit de 25 % au 1er juin. Les utilisateurs de CloudFront devront bien sûr également payer pour les transferts de données et le stockage de leur contenu. Amazon n'est pas la seule entreprise de services web qui cherche à étendre le cryptage. Récemment, Google a lancé une version bêta avec accès crypté de son site de recherche pour « offrir aux utilisateurs des modalités de recherche plus sûres et plus confidentielles, » a indiqué Google.
Amazon a également ouvert un nouveau site à New York, portant à neuf le nombre total de datacenters sur le territoire américain, en plus de ses quatre sites localisés en Europe et des trois dont elle dispose en Asie. La proximité d'un noeud permet d'améliorer les performances, et 3 dirige automatiquement l'utilisateur vers le site le plus proche, a expliqué Amazon.
(...)(09/06/2010 09:10:14)Les risques du Cloud Computing analysés par CA Technologies et Solucom
Désireuses de maîtriser leurs coûts, les entreprises sont également soucieuses du niveau de sécurité de leurs données basculées sur le Cloud. La perte de pouvoir de la DSI de l'entreprise sur une telle infrastructure ainsi que le manque de maîtrise de la disponibilité des services sont à ce titre souvent cités comme autant de freins.
Avant d'utiliser un service de Cloud, Gérome Billois, responsable de département chez Solucom, recommande l'analyse préalable de deux indicateurs : le niveau de confidentialité et le niveau de dépendance que l'entreprise est prête à accepter à l'égard de son hébergeur.
En matière de confidentialité, Gérome Billois précise que « lorsqu'une entreprise opte pour le Cloud Computing, elle rencontre des problèmes de gestion des identités et de revue des droits, surtout lors du départ d'un salarié. Après avoir rendu son badge, lorsque les applications sont hébergées sur le nuage, le salarié a toujours accès aux applications sur internet. L'entreprise doit vraiment veiller à supprimer le compte et à ôter les droits ».
Le suivi doit se faire de manière plus rapide et plus consciencieuse que dans le cas d'une infrastructure traditionnelle. Car le risque est d'autant plus important que les applications métiers sont sur internet.
[[page]]
Par ailleurs, Gérome Billois indique que « le marché du Cloud Computing est assez jeune et n'a pas de standard ». De ce fait, l'entreprise doit souvent s'adapter aux formats de données de son fournisseur. Avec l'émergence du Cloud, le rôle de l'IT interne à l'entreprise risque d'être transformé. Les DSI vont devoir s'adapter et instaurer de nouveaux modes opératoires et de nouveaux processus. Au lieu de gérer en direct les infrastructures, leur fonctionnement et leur évolution, la DSI va devoir contrôler tout ce qui concerne la politique de confidentialité et de sécurité des données.
De plus, comme l'explique Yves Leroux, stratège en technologie chez CA technologies, l'entreprise devra faire face à de nouvelles problématiques légales. En effet, « elle devra traiter les incidents et chercher le coupable en cas de défaillance et de perte de données ». Elle devra également travailler sur la conformité et mettre en place un audit interne.
En parallèle, l'entreprise utilisatrice devra gérer le cycle de vie de l'information, depuis sa création jusqu'à sa destruction afin de satisfaire à la politique de confidentialité. Enfin, avant d'externaliser le stockage de ses données sur le nuage, l'entreprise devra penser à la portabilité de ses données, afin d'envisager la manière dont elle les récupèrera si elle décide de ne plus être sur le Cloud.
Malgré un aspect de risque à prendre en considération, l'entreprise tire des bénéfices du Cloud Computing. Par exemple, en termes de coûts, les services applicatifs en mode SaaS lui permettent de ne payer que ce dont elle a besoin. Elle n'a pas à agrandir son infrastructure étant donné qu'elle peut louer davantage de serveurs auprès de son hébergeur en cas de pics de charge. Le Cloud offre également l'avantage de pouvoir rapidement déployer des applications.
TechEd 2010 : Microsoft promeut un modèle de cloud hybride
« Nous sommes à l'aube d'une transformation majeure pour l'industrie, le cloud computing, qui nous affectera tous », a rappelé le président de l'activité Serveurs et outils de Microsoft, en insistant sur l'ampleur des modifications qui seront nécessaires à sa mise en oeuvre. Dans ce contexte, l'éditeur de Redmond prétend créer les précurseurs du cloud. « Il y a aujourd'hui dans votre environnement beaucoup de choses qui pourraient être fournies sous forme de services », explique en substance Bob Muglia.
Microsoft cherche à prendre l'avantage sur son propre terrain en transformant ses logiciels existants pour qu'ils puissent gérer ou exploiter des applications sur Windows Azure ou dans les autres offres de cloud basées sur .Net. Ainsi, Bob Muglia a moins parlé d'Azure lui-même que des logiciels qui, de plus en plus, s'adaptent au cloud. Au cours de son intervention sur TechEd 2010, il a évoqué des produits tels que la solution d'administration informatique Systems Center, l'environnement de développement intégré Visual Studio 2010, les logiciels d'automatisation des processus pour le cloud d'Opalis Software (acquis par Microsoft en décembre 2009) et, même Windows Phone 7.
Avec Systems Center, les administrateurs vont pouvoir gérer des copies de SQL Server qui se trouvent à la fois sur des machines locales et dans le cloud. Quant à la version 4 de .Net, qui sera mise à disposition cette semaine, elle permettra aux développeurs de spécifier s'ils veulent que l'application qu'ils conçoivent fonctionne dans le cloud ou en interne.
[[page]]
La technologie d'Opalis Software sera intégrée à Systems Center. Elle permet aux administrateurs de décomposer les services en composants individuels, incluant le système d'exploitation, la base de données, l'OS serveur et le middleware. Il est ainsi possible de mettre à jour un système d'exploitation, par exemple, pendant que le programme tourne. Cela permet aussi à l'administrateur de définir les instances qui peuvent fonctionner pour chaque service. « Opalis apporte un moteur générique qui peut orchestrer les processus au sein d'un environnement IT, explique Bob Muglia. Ce moteur ne fonctionne pas uniquement avec les clients Windows, mais aussi avec les clients Unix et Linux. Il peut aussi s'utiliser avec Microsoft PowerShell », précise-t-il.
Windows Azure et SQL Azure n'ont pas
encore atteint la parité fonctionnelle
Le président de l'activité Serveurs et outils a par ailleurs montré comment Windows Phone 7 fonctionnait dans cet environnement. L'interface de l'OS mobile se compose de panneaux, chacun conduisant à une application ou un service. On pourra, par exemple, accéder à SharePoint pour appeler un document stocké par le portail, le modifier et le renvoyer vers l'instance SharePoint. »
Lors d'une conférence de presse donnée à l'issue de sa présentation, Bob Muglia a reconnu que les actuelles versions des applications Microsoft sur Azure, telles que Windows Azure et SQL Azure, ne disposaient pas de toutes les fonctionnalités des éditions standards des logiciels. Par exemple, la console d'administration des services SQL n'est pas disponible sur Azure. La parité fonctionnelle entre les éditions arrivera plus tard. « Nous travaillons d'arrache-pied sur Azure », a assuré le dirigeant.
Au Journal Officiel, le Cloud Computing cède la place à informatique en nuage
Comme avec chaque nouveau terme d'origine anglo-saxonne, la commission nationale de terminologie et de néologie vient de rendre un verdict sur le Cloud Computing : il conviendra désormais, en France, de parler d'informatique en nuage. La décision parue au Journal Officiel du 6 juin 2010 vient corriger une décision du 24 avril 2010 qui faisait de ce mot un équivalent du seul mot cloud, une expression abrégée dans sa langue d'origine, ce qui était pour le moins curieux.
Quoiqu'il en soit, cette décision bannit définitivement, par exemples, les concepts d'informatique dans les nuages ou de nuage informatique. Enfin, pour les intégristes de la langue française.
(...)
| < Les 10 documents précédents | Les 10 documents suivants > |