Flux RSS
Cloud computing
904 documents trouvés, affichage des résultats 531 à 540.
| < Les 10 documents précédents | Les 10 documents suivants > |
(16/11/2010 15:28:03)
EC2 d'Amazon intègre des instances GPU pour du calcul intensif
AWS (Amazon Web Services) a ainsi ajouté une nouvelle instance Cluster GPU à sa plate-forme Elastic Compute Cloud (EC2). L'entreprise espère ainsi attirer vers son service des applications gourmandes en calculs comme le rendu et les médias (vidéo, musique, etc...). Le système offre aussi les avantages liés à l'usage du cloud, à savoir qu'il permet d'économiser sur l'achat, la configuration et l'exploitation de clusters de calcul en interne, et de s'affranchir de leur mise en oeuvre qui répond à des processus souvent complexes, comme le précise Amazon. Le « Quadruple Cluster GPU Extra Large Instance» mis en place par Amazon est associé à deux GPU Nvidia Tesla M2050 « Fermi », dotés chacun de 448 coeurs et de 3 Go de RAM. Il peut réaliser plus d'un milliard d'opérations en virgule flottante par seconde. D'après le descriptif posté sur le blog de AWS, l'instance est également dotée de deux processeurs quad-core Intel X5570 Xeon, 22 Go de RAM et offre une capacité de stockage de 1690 Go en local.
Des tarifs évolutifs
Chaque compte Amazon Web Services peut utiliser jusqu'à huit instances GPU dans un cluster, les noeuds communiquant en 10 Gigabit Ethernet. Aujourd'hui, les utilisateurs souhaitant disposer de cluster plus grands doivent demander l'autorisation d'Amazon. « Le réglage par défaut est là pour aider AWS à mieux comprendre les besoins de ses clients pour cette technologie, mais n'est en rien une limitation liée à son usage, » indique l'éditeur. Le paramétrage par défaut similaire, existant préalablement sur son cluster standard, a été désactivé, indique par ailleurs le blog. Pour tirer pleinement partie des GPU, les applications devront être compatibles avec l'architecture de calcul parallèle CUDA de Nvidia. Les utilisateurs peuvent, soit payer 2,10 dollars de l'heure ou réserver une instance. Dans ce cas ils devront payer des frais initiaux de l'ordre de 5 630 dollars pour un contrat d'un an, plus un taux horaire réduit de 0,74 dollar précise Amazon à titre d'exemple. Ces capacités de calcul via GPU peuvent tourner sous Linux 64-bits. Ils ne sont pour l'instant accessibles que sur le site d'Amazon situé en Virginie du Nord.
Silicon Valley 2010 : Sécurité et stockage dans le cloud (1e partie)
Sécurité réseau dans le cloud
Fondée en 2006 par J. Chaudhry et K. Kailash, Zscaler propose aujourd'hui aux entreprises un service de sécurité en mode SaaS basé sur son cloud hébergé dans 44 datacenters (en colocation) à travers le monde. Cette solution repose sur une idée simple : au lieu de multiplier les appliances de sécurité dans les entreprises pourquoi ne pas transiter par un serveur proxy, celui du cloud de Zscaler en l'occurrence. Ce dernier propose en fait un service de filtrage capable de contrôler les accès web et la messagerie d'un poste de travail ou d'un terminal mobile de type smartphone ou tablette Internet. Le blocage des spams, le filtrage web et la gestion de la bande passante suivant les politiques réseau de l'entreprise permettent de réduire la charge des serveurs d'un tiers selon les dirigeants de Zscaler. La première question qui vient à l'esprit au mot proxy est bien sûr celle de l'impact sur les performances. « Nous avons déployé notre cloud dans une quarantaine de datacenters dans le monde, avec plusieurs instances dans les noeuds et un coeur centralisé pour suivre les utilisateurs lors de leur déplacement. Ainsi un utilisateur français à Sunnyvale (le siège de Zscaler en Californie, NDLR) sera automatiquement géré par le Datacenter Fremont pour réduire le temps de latence » précise Jay Chaudhry, CEO de Zscaler. « Nous conservons dans notre base de données tous les profils des utilisateurs qui pourront être appliqués n' importe où dans le monde. Il ne s'agit pas de synchronisation instantanée, mais de ce que nous appelons shadow policies. Nous avons passé 5 années à déployer nos appliances dans les datacenters et à peaufiner l'équilibrage de charge de notre proxy configuré par 10 Gigabit».
LVMH et la CINP, déjà clients en France
Plusieurs entreprises françaises utilisent déjà le service proposé par la société de Sunnyvale. « LVMH par exemple a renoncé à ses 600 appliances de sécurité déployés dans ses nombreuses filiales dans le monde pour sécuriser ses accès web avec notre solution » poursuit le CEO. Et depuis cet été, la CINP de Paris (Chambre Interdépartementale des Notaires de Paris) met progressivement en place le service de filtrage en ligne du web et des e-mails de Zscaler pour ses 10 000 utilisateurs. Le service est facturé de 1 à 5 $ par utilisateur et par mois en fonction des options. « Toutes les compagnies sur Internet sont potentiellement nos clients » explique Shrey Bhatia, vice-président en charge des ventes chez Zscaler. « La sécurité est un marché en pleine croissance (20 à 30% par an) et comme cette solution marche partout dans le monde, nous sommes confiants. 50% de nos revenus proviennent déjà du reste du monde (hors USA, NDLR). »
Jay Chaudhry, CEO de Zscaler et Upa Hazarika, responsable produit
Côté technique, la solution de Zscaler repose sur un noyau FreeBSD. «Ce dernier était trop lent pour le 10 Gigabit, nous lui avons donc apporté des améliorations pour développer notre service. Nous avons également développé notre propre système de fichiers pour offrir un service rapide ». Il est utile de préciser à ce stade que K. Kailash, le cofondateur de Zscaler est également à l'origine de Netscaler, rachetée en 2005 par Citrix, et qu'un grand nombre d'ingénieurs de cette start-up ont travaillé sur le projet Zscaler. 
Julien Sobrier, développeur chez Zscaler
Notre passage chez Zscaler a également été l'occasion de rencontrer uen développeur français travaillant pour la compagnie, Julien Sobrier, à l'origine d'un plug-in pour FireFox, BlackSheet capable de détecter les intrusions de Firesheep. Cette extension repère si quelqu'un utilise Firesheep sur le réseau où il est connecté, laissant à l'utilisateur le soin d'apprécier la meilleure attitude à adopter en matière de sécurité quand il utilise un réseau WiFi ouvert par exemple. Arrivé en 2003 dans la Silicon Valley, Julien Sobrier a travaillé plusieurs années chez Juniper avant de rejoindre l'équipe de R&D de Zscaler, forte de huit personnes à ce jour. «Nous travaillons sur les évolution virales et collaborons avec d'autres éditeurs comme Google et Microsoft pour prévenir les menaces sur Internet».
Pour revenir sur la solution cloud proposé par Zscaler, Julien Sobrier point les avantages de la plate-forme : analyse en temps réel, mise à jour instantanée des signatures virales, inspection ne profondeur des fichiers et enfin outil d'analyse du trafic. Les amélioration à venir pour les clients sur lequel travaille Julien Sobrier sont chercher du coté du data mining et d'une analyse encore plus profonde, notamment au niveau des fichiers PDF.
[[page]]
Le stockage émarge dans le cloud
Avec StorSimple, une start-up fondée en mai 2009 et installée à Santa Clara, on passe à un service cloud reposant sur un appliance baptisé Armada pour stocker et sauvegarder ses données sur les plates-formes d'Amazon, de Microsoft ou d'Iron Mountain. Avec un appliance Armada, les clients ont la possibilité de stocker des données localement et de faire des sauvegardes instantanées dans le cloud, de mettre en cache les données, de les stocker ou cde les répliquer dans un cloud. Pour ce faire, l'Armada Storage Appliance dispose des fonctions de déduplication primaire, de compression et de hiérarchisation automatique des données. Les informations conservées dans les nuages apparaissent comme des données stockées localement et s'intègrent à l'environnement de stockage existant. 
Ursheet Parikh, CEO et fondateur de StorSimple
L'Armada identifie et enregistre «à chaud» toutes les modifications de données et les stocke sur des disques SSD. Lorsque les données sont considérées comme moins fréquemment utilisés, elles sont automatiquement migrés vers des solutions de stockage moins onéreuses comme le Serial ATA. Toutes les data stockées dans le cloud sont cryptées. « A la différence de certains acteurs qui sont obligés de s'associer pour proposer un service de stockage cloud, nous proposons une solution clef en main » assure Ursheet Parikh, CEO et fondateur de StorSimple avec Guru Pangal, anciennement directeur général et vice-président chez Brocade. La société est financée à hauteur de 8 millions de dollars par Redpoint Ventures et Index Ventures. « Notre appliance est simplement vu comme un volume iSCSI et travaille en temps réel pour optimiser le travail des applications », explique encore Ursheet Parikh, auparavant responsable marketing produit chez Cisco.
3 appliances au catalogue
La start-up joue également la complémentarité avec les solutions de Microsoft. Son service de stockage en ligne est optimisé pour les applications SharePoint, Exchange, Windows et les machines virtuelles. Enfin quand une entreprise utilise l'option capture instantanée, le service CloudClone va transférer une image complète, passée à la moulinette compression et déduplication avant d'arriver sur le cloud. Par la suite, les changements supplémentaires seront de simples snapshoot. Trois appliances sont en fait proposés par StorSimple : l'Armada 1010 (à partir de 10 000 $) pour un volume de stockage de 10 To, l'Armada 5010 (30K$) pour 20 To et l'Armada 7010 (50K$) pour 40 To. On paie en fait pour ce qui est injecté dans le cloud et la prochaine release du logiciel maison supportera la migration automatique vers un nouvel appliance.
Christophe Morton, directeur marketing de StorSimple avec l'appliance Armada 1010
(...)
Stockage : EMC acquiert Isilon
La consolidation dans le secteur du stockage bat son plein. L'année 2010 a été riche en acquisition et la fin de l'année ne dément pas ce dynamisme. Au coeur des mouvements, EMC revendique depuis 1 semaine la palme de la gourmandise avec deux acquisitions. La plus récente concerne le rachat d'Isilon, spécialiste du stockage en cluster pour des clients à fort volume de données (notamment les chaînes de télévision, mais aussi les scientifiques à travers le décodage du génome par exemple). Le prix de l'acquisition est de 2,25 milliards de dollars. Pour mémoire, HP a racheté 3Par pour 2,4 milliards de dollars au mois de septembre dernier.
Sur les termes financiers, EMC va racheter des actions Isilon au prix de 33,85 dollars. Les discussions pour cet accord avaient été dévoilées par la presse économique américaine au mois d'octobre dernier. Dans le communiqué commun, EMC souhaite que l'opération se finalise avant la fin de cette année. Sur le plan technique, la société de Hopkinton devrait coupler Atmos et les solutions d'Isilon pour fournir une infrastructure de sauvegarde dédiée à la gestion des « Big Data ». Cette activité pourrait représenter jusqu'à 1 milliard de dollars au second semestre 2012. Pour Joe Tucci, PDG d'EMC, « les vagues inéluctables du cloud computing et des données massives, sont une réalité. Les clients recherchent donc de nouveaux moyens pour stocker, protéger, sécuriser et ajouter de l'intelligence à l'énorme quantité d'informations qu'ils accumuleront au cours de la prochaine décennie. EMC, en combinaison avec Isilon, se situe au carrefour de ces tendances avec des produits de premier plan. »
Bus Tech auparavant
Il y a moins d'une semaine, EMC avait annoncé l'acquisition de Bus-Tech. Cette dernière, basée à Bedford, dans le Massachusetts, fournit des VTL (Virtual Tape Library), un système de stockage comprenant un serveur, plusieurs disques et un logiciel émulant cet espace disque en bande magnétique. Bus-Tech propose des solutions à destination des mainframes, elle concurrençait directement IBM dans la sauvegarde des données sur les grands systèmes.
Le montant de cette transaction n'a pas été annoncé. Bus-Tech sera intégré à la division « Backup Recovery System » d'EMC.
Tribune : Michel Calméjane, DG de Colt France
Le Cloud Computing, est avant tout un accélérateur de tendance. Le rapport d'étude réalisé pour le sénat par le cabinet Greenwich chiffrait pour la France l'assiette fiscale à risque du e-commerce et des systèmes d'informations des entreprises à 73 Md€, dans le cas d'une migration massive vers un modèle externalisé.
La prise de conscience est générale : dans une compétition européenne d'optimisation des recettes fiscales, la localisation physique des données est le nouveau Walhalla. Je parle bien sur de Walhalla, en Australie, lieu des premières ruées vers l'or.
Les données sont le nouvel or noir, les Google, Bing et autres moteurs de recherche les nouvelles plateformes de forage, les réseaux de fibre leur structure de transport et l'iPad et l'iPhone les pompes à distribuer l'énergie numérique. Sans surprise, les Etats Unis sont les premiers à exploiter le filon, et il serait temps que les pays détenteurs de ces réserves s'organisent, sous peine de pillage en règle : le Cloud est partout et nulle part, mais les bases de données géo-localisent une assiette fiscale « on demand » dans les nouvelles usines de raffinage que sont les datacenters. Et si le monde est plat (1), les réflexes restent séculaires. L'économie du quaternaire sera sensible aux même externalités que l'économie industrielle ou des services, à la différence près de la vitesse de propagation. Il est d'autant plus urgent de préciser certains détails.
Se poser les bonnes questions
Qui dit nouveaux territoires pense forcément frontières, et par extension défense des frontières. Mais dans le nouveau modèle, les stratégies de sécurisation basée sur la défense des bordures sont caduques. Vouloir « re-périmétriser » un Cloud Public, revient à tenter de refermer la boîte de Pandore en étant soi-même à l'intérieur. Inutile de préciser que la tentation de s'enfermer seul dans la dite boîte me paraît une stratégie de court terme, même en compagnie de l'espérance.
Lire la suite sur le Blog Experts Le Monde Informatique.fr
Riverbed s'attaque aux clouds privés et publics
Riverbed poursuit son évolution dans les outils de performance informatique. Après l'optimisation des applications pour les environnements difficiles avec Virtual Steelhead, l'équipementier s'attaque aux clouds et à la migration des entreprises vers les nuages privés et publics. Pour Apurva Davé, vice-président du marketing produit de Riverbed, « le cloud concentre deux problématiques, la gestion de la croissance des données échangées et les questions de bande passante (latence, temps de réponse). Pour répondre à ces questions, Riverbed propose deux produits.
Le premier a été baptisé Cloud Steelhead. Il s'agit d'une version de l'appliance Steelhead de Riverbed qui est en charge de l'optimisation WAN. Cet outil comprend des modules complémentaires qui accélère la circulation des données vers et depuis les centres de données des fournisseurs de clouds, sans nécessiter la reconfiguration des réseaux des entreprises ou des prestataires. Le trafic ainsi optimisé accélère l'exécution des applications dans le cloud public, rendant ainsi cet environnement plus attractif financièrement que garder certaines applications dans un cloud privé. Cet équipement est compatible pour l'instant avec le cloud public EC2 d'Amazon. Il est livré avec un logiciel baptisé, Discovery Agent, qui se connecte au module de gestion de Riverbed, hébergé chez Amazon. Ce portail crée un lien logique entre une appliance Steelhead installée sur un site d'entreprise (ou un client Steelhead Mobile sur un ordinateur individuel) et le serveur recherché. Apurva Davé souligne « le déploiement d'une telle solution est rapide et évolutive, si une entreprise à besoin d'une autre instance, elle est opérationnelle en quelques minutes ». En ce qui concerne le prix, Riverbed a adapté sa tarification en fonction de la bande passante, il faut compter 250 dollars pour un lien à 1 Mbits.
Le stockage optimisé
Le second produit répond au nom poétique de Whitewater. Cette solution est utilisée par les fournisseurs sauvegarde et d'archivage en mode cloud. Elle permet la transformation des protocoles (CIFS, NFS, etc...) de stockage entre les datacenter d'entreprise et ceux des prestataires de stockage cloud. Elle réduit le nombre d'octets qu'il faut pour stocker des données dans le cloud et les crypte aussi pour ne pas être lus pendant le transfert ou quand elles sont stockées, souligne Riverbed. Le produit, qui sera vendu comme un logiciel ou un équipement physique, déduplique le trafic et le sécurise en utilisant un chiffrement AES 256. Il stocke les clés de chiffrement et renvoie les données dédupliquées stockées dans sa forme initiale quand elles sont récupérées sur le cloud. Whitewater est compatible avec EMC Atmos, AT & T Synaptic Storage as a Service et Amazon S3. Ce produit qui se déclinera en version small, medium et large est vendu en tranches en fonction du nombre d'octets de données stocké dans le cloud. Le coût pour 1 To de stockage est de 12 000 dollars.
Microsoft pousse Hyper-V pour combler son retard dans le cloud privé
Microsoft a conclu un partenariat avec six grands fournisseurs de solutions matérielles pour proposer des architectures de référence qui aideront les entreprises à construire des clouds privés de type IaaS (Infrastructure-as-a-Service). Dell, Fujitsu, Hitachi, Hewlett-Packard, IBM et NEC sont les principaux partenaires de ce programme baptisé Hyper-V Fast Track Cloud qui propose des plates-formes prédéfinies et certifiées pour assembler et configurer plus rapidement des clouds privés reposant sur les solutions de l'éditeur.
L'annonce fait partie d'un certain nombre de nouvelles initiatives de Microsoft pour offrir davantage de soutien aux entreprises intéressées par le déploiement de clouds reposant sur la technologie Hyper-V, et ce en interne ou via un prestataire de services informatiques. Rappelons que Hyper-V est l'hyperviseur de type 1 livré avec Windows Server 2008 R2, pour installer plusieurs machines virtuelles sur un serveur physique.
"Nous pensons que ce programme va accélérer le déploiement des projets clouds. Microsoft a une position unique sur le marché du cloud computing avec ses plates-formes, ses infrastructures et ses liens avec de nombreux partenaires », nous a précisé lors de cette annonce Jérôme Trédan, directeur de la division serveurs chez l'éditeur de Redmond. « Une des bases de ce programme a été le lancement de l'offre reposant sur la plate-forme HP BladeSystem Matrix (voir lien). Le programme d'engagement Hyper-V Fast Track Cloud étend aujourd'hui cette base à 80% des constructeurs présents en France. »
Des architectures de référence pour aller plus vite
Pour chacun des six partenaires, Microsoft propose une architecture de référence ainsi que la documentation technique pour installer les logiciels. Par exemple, le HP Cloud Fondation pour l'architecture Hyper-V montre comment intégrer les équipements et les logiciels BladeSystem Matrix (serveurs stockage et réseau), System Center et Windows Server 2008 R2 Hyper-V dans un cloud privé.
Les architectures de référence sont censées régler toute une série de problèmes de mise en oeuvre comme la façon dont les couches réseau et stockage vont travailler ensemble, combien de machines virtuelles peuvent être déployées sur un serveur physique et enfin comment opérer le basculement avec les systèmes existants. Les architectures de référence de Dell, HP et IBM ont été dévoilées lors de la conférence Microsoft TechEd à Berlin et celles des autres fournisseurs le seront dans les prochains mois.
En plus de Fast Track, la société a également commencé à sélectionner les prestataires qui seront capables de fournir des services cloud reposant sur la technologie Hyper-V dans le cadre du programme Hyper-V Cloud Service Provider. A ce jour, l'éditeur a accrédité plus de 70 fournisseurs, dont Agarik et Linkbynet en France. Mathieu Demmor, responsable marketing chez ce dernier prestataire, nous a expliqué vouloir adresser le marché des TPE-PME avec ses offres clouds privés Hyper-V. « Une offre infrastructure pour des budgets serrés qui démarre à 550 € HT par mois pour une instance virtuelle web et une disponibilité de 99,5% et passe à 1470 € HT par mois pour 4 machines virtuelles avec une dispo de 99,75%. »
Un effort indispensable pour suivre et rattraper Vmware
Microsoft propose des formations à ces prestataires et intégrateurs pour accompagner les projets de clouds privés chez les clients. Un ensemble de guides, Hyper-V Deployement Guides, sont également fournis pour mettre en place des clouds privés avec une grande variété d'équipements.
Pour les intégrateurs travaillant pour le compte d'entreprises, Microsoft propose un programme baptisé Hyper-V Cloud Accelerate, qui aidera les intégrateurs à mettre en place des systèmes de test et à déployer des systèmes de production. Les conseils et les partenaires de Microsoft accompagneront le mouvement. « "Les nouveaux programmes sont probablement nécessaires pour aider Microsoft à vendre Hyper-V et System Center comme des pièces de base pour les clouds internes », a souligné Derrick Harris, analyste chez GigaOm, sur son blog. « Le principal compétiteur sur le marché des hyperviseurs pour le cloud est Vware, qui a fait un excellent travail marketing pour pousser ses produits de virtualisation en tant que solution pour les clouds. Considérant le leadership significatif de VMware sur le marché et les esprits, Microsoft a besoin d'accompagner les utilisateurs vers sa technologie Hyper-V-est-connecté-au-cloud» si elle veut combler l'écart. "
L'éditeur de Redmond a annoncé ces services au cours de sa conférence TechEd Europe, qui se tient cette semaine à Berlin.
Crédit photo : D.R.
Marvell se lance dans l'aventure des puces ARM pour serveurs
La puce Armada XP est le « plus rapide » processeur ARM disponible sur le marché aujourd'hui, a déclaré Marvell dans un communiqué. Le processeur est cadencé à 1,6 GHz et comprend de la mémoire (2 Mo sur deux niveaux de cache), des interfaces réseau et stockage autour de laquelle un serveur peut être construit.
ARM accorde des licences aux différents fabricants de puces comme Marvell, Texas Instruments, Samsung et Qualcomm. Les processeurs ARM sont reconnus dans le monde des smartphones, ainsi que dans le secteur des tablettes. Le fondeur parle, depuis 2008, d'intégrer sa technologie dans les serveurs et l'Armada XP de Marvell pourrait leur apporter une place sur ce marché. Marvell sera en concurrence avec des entreprises comme Smooth-Stone, qui a déjà annoncé son intention de proposer des puces serveurs basées sur les architectures ARM.
Un porte-parole de Marvell a indiqué que des puces Armada XP ont été fournies pour tests à certains clients de haut niveau, sans indiquer les noms de fabricants de serveurs. Ce composant pourrait s'adresser par exemple aux serveurs réseaux et médias.
Un marché en devenir
Le fabricant de semi-conducteur a également déclaré que sa puce est basée sur l'architecture ARM v7, mais le porte-parole ne pouvait pas immédiatement fournir plus de détails. ARM a récemment introduit un processeur appelé Cortex-A15, qui cible une utilisation dans des produits allant des smartphones à des serveurs. Ce composant est basé sur la récente architecture V7-A.
Il y a un intérêt croissant pour la fabrication de serveurs avec des puces de faible puissance pour exécuter rapidement les opérations liées au cloud computing. ARM indique que son produit fournit de meilleures performances par watt que les puces basées sur l'architecture x86 d'Intel ou AMD.
Beaucoup d'expérimentations sont déjà en cours avec des puces-serveur de faible puissance, mais le résultat est modeste. Les puces Atom d'Intel pour les netbooks sont utilisées dans certains serveurs spécialisés tels que le SM1000 SeaMicro, qui comprend 512 processeurs Atom sur des cartes mères miniatures de la taille d'une carte de crédit. AMD a également indiqué qu'il pourrait envisager de mettre ses prochaines puces de faible puissance dans les serveurs.
(...)
Dell s'offre Boomi, un spécialiste du cloud
En mettant la main, mardi dernier, sur Boomi, une entreprise spécialisée dans l'intégration de SaaS, Dell entend se renforcer dans le domaine du cloud computing. Les termes de la transaction restent encore inconnus. Boomi fournit des services qui simplifient le déploiement et la gestion des applications dans le cloud, parallèlement aux solutions développées en interne dans l'entreprise.
Des tentatives pour racheter 3Par
La plate-forme d'intégration à la demande conçue par Boomi et baptisée Atomsphere permet de transférer rapidement des données entre des applications exploitées sur site et des services hébergés comme le CRM Salesforce.com. Ce rachat constitue l'une de premières étape dans la construction d'un portefeuiille de produits plus important, au moment où de plus en plus d'entreprises se tournent vers une informatique basée sur le web, a commenté Dell dans un communiqué. Il y a quelques mois, la firme texane avait tenté d'acquérir 3Par, un moyen pour l'entreprise de mettre un pied dans la mouvance cloud. Mais au final, ce fût HP qui remporta la bataille.
L'été dernier, le texan s'offrait Ocarina Networks, une start-up spécialisée dans la déduplication de donnée et Exanet, un autre éditeur de solutions de stockage.
(...)
APC se lance dans les logiciels de gestion énergétique des datacenters
On ne dit plus simplement « APC », mais « APC by Schneider Electric ». Le changement de nom n'est pas anodin : désormais filiale d'un géant de l'énergie, APC fait de la réduction de la consommation électrique sa principale priorité. C'est dans ce contexte que le constructeur annonce la création d'une division dédiée aux logiciels de surveillance, de planification et de modélisation pour les datacenters.
Concrètement, les logiciels APC seront commercialisés par les partenaires certifiés Elite. Ils sont 10 aujourd'hui (Apis Engineering, Dimension Data France, ECF Ingénierie, EVEA Group, Everest Real Concept, IBM France, Module-IT, RMI, SPIE Communication et Telis) et cinq nouveaux certifiés Elite sont attendus pour les mois qui viennent.
Un nouveau canal pour le software
Au-delà, APC s'apprête à créer un canal de distribution dédié à ses logiciels, réunissant des acteurs qui se montraient peu intéressés par la revente de son offre d'onduleurs et de climatiseurs. Il s'agit notamment des intégrateurs et des SSII, mais également de certains corporate resellers, qui pourront commercialiser les logiciels APC même s'il n'y a pas de vente de matériels de la marque ou même pour des centres de données existants qui utilisent d'autres marques. « Nous n'avons pas fixé un chiffre précis pour le nombre de partenaires software, mais nous pensons que 20 à 30 entreprises vont nous rejoindre », précise Eric Boucheron.
On peut légitimement s'interroger sur les ambitions d'APC dans le domaine des services : seront-ils également commercialisés via des partenaires ? « Nous n'envoyons pas de factures aux clients finals. Même lorsque nous réalisons un audit payant, c'est le partenaire qui nous l'achète et le facture au client. La réduction de la consommation électrique est une priorité pour tous les responsables de datacenters. Nous avons des solutions et nous allons partager cette opportunité avec nos partenaires », conclut Eric Boucheron.
| < Les 10 documents précédents | Les 10 documents suivants > |