Flux RSS
Cloud computing
904 documents trouvés, affichage des résultats 81 à 90.
| < Les 10 documents précédents | Les 10 documents suivants > |
(16/12/2011 15:50:07)
Microsoft rend Office 365 compatible avec le Patriot Act et les exigences européennes
Microsoft veut rassurer les futurs clients de ses offres de collaboration et de communication en ligne sur leur compatibilité avec les différents cadres réglementaires, européens ou américains. L'éditeur a pris certaines mesures dans ce sens. Quand un prestataire vend une solution Office 365 en Europe, Microsoft devra signer des « clauses types » développées par l'Union européenne, qui établissent des garanties et des procédures pour protéger les données lorsqu'elles sont transférées hors de l'UE. Dans les pays européens qui ont des exigences supplémentaires, la firme de Redmond va inclure ce qu'elle appelle « un accord sur le traitement des données » qui va au-delà des règles inscrites au sein des directives sur la protection des données.
Aux États-Unis, pour les contrats avec les sociétés relatives à la santé qui doivent se conformer au Health Insurance Portability and Accountability Act (HIPAA), Microsoft va inclure un Business Associate Agreement (BAA) émis par le ministère de la santé américaine pour garantir la protection des données des patients. Stephen McGibbons, CTO de Microsoft pour la région EMEA a déclaré « nous voulons aider les clients à avoir confiance et se sentir en sécurité dans le cloud, en respectant les obligations du HIPAA ou des directives européennes sur la protection des données ». Si les entreprises sont séduites par les applications en mode hébergé, celles gravitant autour de la santé ou de la finance et qui sont fortement réglementées, hésitent à adopter ces logiciels qui ne se conforment pas aux cadres réglementaires.
L'éditeur a également relancé Office 365 Trust Center, un site web donnant des informations sur la confidentialité des produits et les différentes politiques de sécurité. Il a été rénové pour être plus facile d'accès.
(...)
Google App Engine adopte la réplication et la modularité des instances
La dernière version du SDK de Google pour la plateforme cloud App Engine inclut le service de réplication de données, baptisé High-Replication Datastore (HRD). Une version expérimentale de ce service avait été publiée en janvier 2011. Au bout de 6 mois, Google a constaté des problèmes de fiabilité dans les options standard de stockage. L'éditeur a donc attendu de résoudre ces difficultés pour l'intégrer dans son kit de développement.
Avec HRD, les données sont répliquées sur plusieurs datacenters. Cette offre, selon Google, accorde le plus haut niveau de disponibilité des données, mais cela se fait au prix d'une latence plus élevée en raison de la propagation des données. L'éditeur estime qu'un des avantages de HRD est que les applications demeurent entièrement disponibles lors de périodes de maintenances, mais aussi en cas de problèmes imprévus comme des pannes de courant.
Modularité des instances et API expérimentales
Parmi les autres apports du SDK, Google a introduit deux classes d'instance supplémentaires pour les applications plus gourmandes en puissance CPU et mémoire. Un troisième type sera modulaire. Par défaut, elle utilisera une instance basique comprenant 128 Go de Ram et 600 MHz de CPU. Les entreprises pourront faire évoluer les ressources de leur serveur virtuel en payant un complément.
La firme de Mountain View a intégré aussi des API expérimentales. L'API Conversion permet aux utilisateurs de convertir du HTML en PDF, d'extraire du texte au sein d'image en utilisant un OCR. Logs Reader donne, quant à elle, la possibilité de créer des rapports, de recueillir des statistiques, et d'analyser des requêtes.
Le SDK est disponible pour Java et Python, et les deux sont en version 1.6.1. Ils peuvent être téléchargés sur le site de Google.
Alcatel-Lucent dévoile son module 40G pour sa stratégie datacenter fabric
Alcatel-Lucent a présenté des modules 40G Ethernet pour son commutateur haut de gamme à destination des datacenters. Cette brique devrait l'aider dans sa stratégie datacenter fabric. Les modules 40G Ethernet seront intégrés dans le commutateur top-of-rack OmniSwitch 6900. Il existe deux types de cartes : une version comprenant trois ports 40G QSFP + et une configuration hybride 10G/40G, avec quatre ports 10G Ethernet SFP + et deux ports 40G QSFP +. Ces interfaces doivent faciliter la construction ce qu'Alcatel-Lucent appelle les « pods » 40G, une petite configuration de fabric de commutation. Ces pods peuvent ensuite être connectés ensemble, via un commutateur coeur de réseau Omniswitch 10000, pour former un réseau maillé de pods ou un environnement de type cloud. Le constructeur parle d'une catégorie de services appelés « Carrier Cloud » (cloud d'opérateur), qui offrira un meilleur contrôle de la bande passante, une faible latence et la possibilité de fournir une qualité de service garantie.
Alcatel-Lucent a introduit ce concept de pod et de réseau mesh au printemps dernier quand il a dévoilé son switch 6900. A cette époque, l'équipementier avait montré 4 pods connectés à deux commutateurs de coeur de réseau OmniSwitch 10000 via des liaisons 40G Ethernet. Cette architecture pouvait supporter 14 400 ports serveurs avec une capacité de commutation de 169 Tbt/s au sein de 10 racks comprenant 48 unités chacune, avec une latence de 5 microsecondes.
Les modules 40G coûtent 1500 $ par port et seront disponibles au début 2012. A la fin du premier semestre 2012, Alcatel-Lucent devrait intégrer des logiciels pour les Omniswitch comprenant les spécifications Data Center Bridging et Shortest Path Bridging de l'IEEE pour éviter les pertes de multipath Ethernet. Ils intégreront aussi Edge Virtual Bridging pour interagir entre les commutateurs virtuels et physiques. Enfin, le FCoE est attendu à cette période.
Une concurrence active et un réseau de partenariat
La vision d' « Application Fluent Networks », développée par Alcatel-Lucent est en concurrence avec d'autres concept de virtualisation de la brique réseau et les architectures de fabric développés par Cisco, Brocade, HP, Dell, IBM, Extreme Networks, Enterasys, Avaya et d'autres.
Alcatel-Lucent a étendu son écosystème de partenaires pour sa stratégie Application Fluent Networks. Le constructeur a signé un partenariat avec Emulex, pour l'interopérabilité des serveurs 10G Ethernet et VMware pour l'interopérabilité entre les logiciels VMotion et le gestionnaire de la plateforme de gestion des machines virtuelles d'Alcatel-Lucent. Par ailleurs, un accord a été signé avec NetApp, pour la réalisation d'une plateforme de test combinant les baies de stockage et le réseau maillé de pods. Enfin, ces modules s'ajouteront à l'architecture intégrée DCNC (Datacenter Network Connect) élaborée par Alcatel-Lucent et HP, qui ont signé un partenariat le 1er décembre dernier. (...)
Annuels Dimension Data : Une bonne croissance et des ambitions dans le cloud
L'intégrateur Dimension Data publie son chiffre d'affaires (CA) annuel, pour un exercice clos au 30 septembre dernier. Il s'élève à 5,8 milliards de dollars, en hausse de 14,8% (à taux de change constants). Le bénéfice d'exploitation est également en croissance, de 10,8%.
C'est l'activité intégration qui constitue l'essentiel du chiffre d'affaires, 78%, avec un CA de 4,5 milliards de dollars US. Elle est en croissance de 12,8%, son bénéfice en hausse de 7%. Les autres activités du groupe sont également en croissance, 6,% pour la branche solutions internet, 22,9% pour Plessey et 24,3% pour Express Data.
La société se félicite de ses chiffres, non affectés par la crise. Elle prévoit pour 2012 de renforcer ses activités dans le cloud, après la création d'une division ad hoc.
Intercloud à la recherche de partenaires
InterCloud entend occuper un créneau à part dans le monde du cloud, celui de la garantie de la performance de l'accès sécurisé aux applications critiques. Une solution destinée aux entreprises, avec un lien privé.
La société, qui entend se développer à 90% en indirect, a engagé un programme pour le recrutement de 60 partenaires d'ici fin 2012, une douzaine sont déjà partenaires. Essentiellement des éditeurs, comme Prologue, des intégrateurs et des consultants. Ils agissent, soit en marque blanche, soit comme apporteurs d'affaires. InterCloud leur propose un programme d'accompagnement, de formation et de leads.
Selon une étude PAC, les infrastructures bénéficient du développement des clouds
Côté fournisseurs de services d'infrastructures, la pression de la concurrence s'intensifie, les opérateurs télécoms devenant prestataires de cloud et donc de nouveaux concurrents, tout comme des acteurs pure player (Google, Amazon...). Le marché des services d'infrastructure reste importants avec une valeur de 12 milliards d'euros par an en France, soit environ la moitié du marché des services informatiques..
Microsoft héberge Hadoop dans Azure
Microsoft a installé Apache Hadoop sur son cloud public Azure, ainsi qu'il l'avait annoncé en octobre dernier sur PASS Summit 2011. Dans le cadre de la mise à jour de son service de cloud, l'éditeur vient de mettre à disposition une pré-version de cette plateforme d'analyse de données Open Source, souvent utilisée pour traiter les big data. Selon lui, celle-ci permet de déployer des applications Hadoop en quelques heures. Par ailleurs, les développeurs, qui disposent depuis septembre du SDK Windows Azure 1.5, se voient maintenant proposer, au-delà des outils .Net et Visual Studio, un kit de développement pour le framework JavaScript Node.JS (hébergés sur Github).
Avec cette mise à jour du service, Microsoft indique aussi simplifier les montées en charge. D'une part, parce que la taille maximum de la base de données SQL Azure se trouve multipliée par trois (150 Go contre 50 Go auparavant) pour le même prix, soit 500 dollars. D'autre part, en raison de l'arrivée de SQL Azure Federation avec lequel on peut découper des bases SQL Server de différentes tailles pour les faire migrer vers Azure SQL. Microsoft souligne la réduction au Go qui résulte de ces modifications et s'élève à 67% pour la plus grande base, ramenant le prix du Go à 3,33 dollars (mise à jour : 354,25 € pour 150 Go, soit 2,36 € par Go). Pour chaque Go transféré depuis ou vers Azure, les clients américains et européens vont payer 0,12 dollar, contre 0,15 dollar précédemment.
Analyser dans Hadoop Hive à partir de PowerPivot
Pour les utilisateurs de la plateforme Azure, le processus d'enregistrement a été facilité. En définissant des quotas d'usage, le service peut être testé gratuitement pendant 90 jours. L'utilisation et le détail des dépenses se consultent directement sur le portail d'administration Windows Azure. Microsoft dit par ailleurs avoir simplifié sa facturation avec une date de facturation unique pour les clients ayant plusieurs abonnements et une vue synthétique des factures.
En octobre, Microsoft avait annoncé qu'il s'appuierait sur la distribution d'Hadoop proposée par Hortonworks, société issue des rangs de Yahoo. De nouvelles bibliothèques JavaScript aideront les développeurs à construire des tâches MapReduce, ainsi que des pilotes pour analyser les données dans la base Hadoop Hive, à partir du tableur Excel et de son add-on PowerPivot.
Microsoft n'a pas précisé quand le service Hadoop serait disponible dans sa version complète. Pour utiliser l'actuelle pré-version, il faut s'enregistrer. A partir de ces inscriptions, Microsoft va sélectionner un certain nombre d'utilisateurs pour tester la plateforme, sur la base de modèles d'usage qu'il prévoit.
Eclipse, MongDB, Solr/Lucene et Memcached
Avec la bibliothèque Node.js, les développeurs pourront créer des applications web qui fonctionneront sur une version Azure de SQL Server. Pour assister l'utilisation du framework, Microsoft propose un SDK incluant une copie de Node.js, une version de Windows PowerShell et un émulateur Azure. Les développeurs peuvent construire et tester leurs applications sur leurs propres machines, puis les charger sur Azure afin de les y déployer.
Microsoft procure également des outils et de la documentation pour intégrer dans Azure d'autres environnements ou briques Open Source, parmi lesquelles l'IDE (integrated developer environment) Eclipse, la base de données MongoDB, le moteur de recherche Lucene/Solr et la technologie de cache en mémoire distribuée Memcached. Le support de toutes ces technologies va permettre aux développeurs de « bâtir des applications sur Windows Azure en utilisant les langages et frameworks qu'ils connaissent déjà », note dans un billet Gianugo Rabellino, directeur des communautés Open Source chez Microsoft.
Embrane virtualise les services réseaux
Embrane a été fondée en 2009 par deux anciens dirigeants de Cisco Dante Malagrinò et Marco Di Benedetto (comme CTO). Ils avaient déjà participé à la création d'Andiamo, une société spécialisée dans le SAN acquise par Cisco, ainsi que de Nuova Systems, entrerprise qui a fourni la technologie Unified Computing System (UCS) Chez Cisco, Dante Malagrinò a aidé au développement de la stratégie Data Center 3.0, qui combiné virtualisation et matrice de commutation unifiée. De son côté, Marco Di Benedetto a travaillé sur l'élaboration de NX-OS, le système d'exploitation pour datacenter de Cisco.
Les autres collaborateurs d'Embrane, de cette jeune pousse, sont issus de 3Com, HP, Juniper, Oracle, Alactel-Lucent, Array Networks et Palo Alto Networks. Embrane a levé 27 millions de dollars depuis sa création. Lightspeed Venture Partners, NEA et North Bridge Venture Partners sont les investisseurs présents au capital.
Le produit phare d'Embrane se nomme Heleos. Il s'agit d'une plateforme logicielle distribuée pour virtualiser les services des couches 4 à 7, comme l'équilibrage de charge, le pare-feu, le VPN, etc. Elle donne aux entreprises et aux fournisseurs de cloud la capacité de créer des offres clouds en mode IaaS (Infrastructure-as-a-service) en facilitant l'achat, l'allocation et la configuration de ces services.
Rapidité et flexibilité
Des instances de services réseaux peuvent être opérationnelles en moins de deux minutes, et la capacité peut être agrandie ou réduite en moins d'une minute, explique Embrane. La société ajoute que cela contraste par rapport à une architecture classique, avec des éléments matériels trop rigides, coûteux et souvent sous-dimensionnés, avec des paramétrages limités sur le multi-tenant et des complications sur la gestion des licences.
Heleos Elastic Services Manager et l'appliance virtuelle pour l'équilibrage de charge et le pare-feu / VPN sont dès à présent disponibles. Le logiciel fonctionne sur du matériel x86. Il ne prend pas en charge l'API OpenFlow pour la virtualisation du réseau. Embrane considère OpenFlow comme une API de la couche 2-3 de commutation/routage et non comme une API des couches 4-7, indique la start-up. Heleos supporte des licences « sans clé » dans laquelle les fournisseurs ne paient que pour ce qu'ils vendent ou ce qu'ils utilisent. Un abonnement annuel est aussi proposé
Les concurrents de l'offre d'Embrane sont les éditeurs d'appliances virtuelles et / ou services sur du matériel x86. Vyatta, par exemple, dispose d'une offre concurrente sur le firewall / VPN, concède les dirigeants de la jeune start-up.
(...)
HP et Microsoft étendent leur partenariat sur le cloud
HP et Microsoft ont annoncé avoir signé un accord de quatre ans pour fournir les applications de communication et de collaboration leader de Microsoft à travers des services mondiaux de cloud privé et public.
Un peu plus d'un an après avoir initié un accord dans le cloud privé, HP et Microsoft poursuivent leur collaboration en ciblant cette fois les applications de bureautique, de messagerie et les outils collaboratifs.
Selon cet accord, HP et Microsoft offriront des solutions de cloud privé et public destinées à aider les entreprises à accroître rapidement le nombre des utilisateurs. Les offres comprennent le cloud privé : les applications de productivité Microsoft Exchange Server 2010, SharePoint Server 2010 et Lync Server 2010 seront proposés en mode SaaS depuis la solution HP Entreprise Cloud. Le cloud public: HP proposera les offres de Micrsoft Office 365
ICTjournal.ch
Backup dans le cloud pour Arkeia Network Backup 9.1
Le principal intérêt d'Arkeia Network Backup 9.1 est l'extension de la technologie de déduplication progressive de Kadena Systems à la sauvegarde de données vers le cloud. Une solution désormais hybride donc, local et en ligne. « Il s'agit de donner des outils à nos partenaires qui désirent proposer une plate-forme de sauvegarde avec déduplication progressive », nous a indiqué Frédéric Renard, directeur général EMEA chez Arkeia. Les images sauvegarde peuvent désormais être répliqués en tant que données dédupliquées vers un espace de stockage d'un cloud privé ou public, ce qui constitue une alternative aux bandes pour les sauvegardes hors site. L'usage de la déduplication local permet en outre de diminuer la quantité de données transférées sur le réseau ce qui réduit les temps de back-up. « La sauvegarde peut s'opérer vers un site distant, un cloud privé ou déployer dans un cloud public tel que celui d'Amazon S3 » poursuit le dirigeant. « La solution qui a toutefois le plus de sens est celle proposée par nos partenaires. »
Arkeia propose en effet aux fournisseurs de services hébergés (MSP) et aux revendeurs à valeur ajoutée (VAR) de fournir des services de sauvegarde sur le cloud. L'architecture proposée est classique : un serveur de sauvegarde chez le client - le logiciel ou une appliance physique ou virtuelle - et une machine de réplication dans le datacenter du partenaire ou sur un cloud public. Grâce à l'interface web d'Arkeia Network Backup, le partenaire gère à distance les sauvegardes locales du client final ainsi que la réplication hors site des images de sauvegarde. Un tarif volumétrique sera appliqué par les revendeurs qui sont libres de se caler sur les prix du marché.
A partir de 80 euros par mois pour 60 Go
Partenaire de l'éditeur, Jean-Christophe Le Got, directeur général de Taix, fournisseur de services hébergés basé en région parisienne , nous a détaillé l'offre de sauvegarde hybride qu'il allait proposer avec Network Backup 9.1. « Auparavant, nous travaillions avec ArcServe mais faute d'interlocuteurs et de support, nous avons décidé de passer sur une autre solution il y a deux ans [Arkeia 8 donc]. Avec Arkeia, nous proposons le cheval de Troie de la sauvegarde. Nous déployons des appliances de sauvegarde Arkeia dans les locaux de nos clients et les utilisons pour sauvegarder leurs données. Puis, nous répliquons les données hors site durant la nuit. » Les données sont cryptées et transférées en SDSL pour éviter les time out comme sur l'ADSL. Le dirigeant avoue toutefois ne pas encore proposer de sauvegarde de bases Exchange . « Il est toujours impossible de passer 40 Go dans une nuit. » Pour les tarifs, Taix annonce 80 euros pour 60 Go et 150 euros pour 120 Go mensuels. « Les images et les vidéos ne sont pas encore hébergés, car on ne peut pas les compresser. »
La version 9.1 de Network Backup comprend également des outils étendus pour la gestion du moteur de déduplication progressive et offre un tableau de bord qui rassemble sur une seule page les informations clés du serveur de sauvegarde. Une version bêta d'Arkeia Network Backup 9.1 est actuellement disponible et la version finale est attendue courant janvier. Pour bénéficier du programme bêta, visitez la page : http://www.arkeia.com/beta-test
La version sera gratuite pour les clients d'Arkeia actuellement sous contrat de maintenance. Elle sera commercialisée à partir de 600 euros HT incluant un an de maintenance pour un serveur de sauvegarde.
(...)
| < Les 10 documents précédents | Les 10 documents suivants > |