Flux RSS

NAS

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

267 documents trouvés, affichage des résultats 191 à 200.

< Les 10 documents précédentsLes 10 documents suivants >


(28/07/2008 11:21:45)

Microsoft en passe d'acheter le datawarehouse de DatAllegro

Microsoft a annoncé son souhait d'acquérir DatAllegro, fournisseur de solutions intégrées pour la gestion d'entrepôts de données atteignant jusqu'à plusieurs centaines de To. L'offre du petit californien regroupe du stockage EMC, des serveurs Dell exploitant des multi-coeurs Intel, des commutateurs Infiniband de Cisco et la base de données Open Source Ingres. L'intérêt est double pour Microsoft : profiter de la croissance exponentielle du stockage de données et combiner cette solution avec le futur SQL Server (la version 2008 va sortir avant la fin de l'année). Microsoft entend faire de SQL Server, combiné à DATAllegro la solution incontournable de stockage de données dans les années à venir. Les concurrents actuels de DATAllegro, Netezza et Terradata ainsi que HP, ne devraient pas tarder à réagir. Le montant de l'opération n'est pas communiqué. (...)

(28/07/2008 10:48:53)

Le vade-mecum de Forrester pour économiser son stockage

Le stockage coûte à peu près 11% du budget du matériel informatique, mais il existe cinq moyens de réduire ce coût sans sacrifier ni les performances ni la sécurité. C'est ce que propose le cabinet Forrester Research grâce à une feuille de route pour de l'achat intelligent, et de l'optimisation des ressources existantes. 1. Remettre son fournisseur habituel en concurrence, surtout si cela n'a pas été le cas depuis longtemps. 2. Récupérer la capacité inutilisée. Certaines applications ou systèmes d'exploitation exigent une capacité importante dès leur initialisation, sans possibilité de croissance progressive, mais ne la consomment pas. De plus, il est souvent difficile de prédire la capacité dont on aura réellement besoin. Résultat, il y a un gros écart entre la capacité allouée et celle réellement consommée. Réajuster les capacités implique de planifier des arrêts. L'usage de la virtualisation peut alors aider à migrer vers de nouvelles ressources mieux équilibrées. Attention, il arrive que l'on arrête des serveurs sans replacer pour autant leur espace de stockage associé dans le pool de capacité libre. Enfin, il y a parfois du stockage rendu disponible dans une baie mais qui n'est pas visible des serveurs. 3. Réaliser un audit des sauvegardes et des réplications afin d'éviter le gaspillage. Dans un environnement de stockage moyen, on trouvera souvent dix copies de la même donnée, plusieurs jours de sauvegardes complètes, des « snapshots » et une réplication complète des données sur le site de secours. En outre, la plupart des solutions de sauvegardes ont des fonctions de rapport inadaptées, donc il est difficile pour un administrateur d'associer chaque application à ses sauvegardes. Un audit peut aider à supprimer les sauvegardes, snapshots, clones et réplications inutiles. L'espace disque ou bande libéré peut ainsi redevenir utilisable. 4. Repenser au réseau de stockage employé. Paradoxalement, le Fibre Channel n'est pas la seule solution lorsque l'on veut de la performance et de la disponibilité. On peut trouver une alternative intéressante, et moins coûteuse, avec le iSCSI, et les serveurs de fichiers NFS, voire en attachement direct. De plus en plus d'applications sont compatibles avec NFS. Oracle et VMware en tiennent compte. Attacher directement le stockage au serveur peut également être un bon choix si le stockage est dédié à une seule application. 5. Utiliser un stockage à plusieurs niveaux qui soit simple à mettre en oeuvre. Cette architecture de stockage (disques rapides et coûteux au premier niveau, disques moins rapides pour du stockage de masse, bandes magnétiques, bandes virtuelles) doit être appréhendée comme une stratégie à long terme car elle ne permet pas d'économies à court terme. En outre, sa complexité dépasse ses avantages selon de nombreux utilisateurs, ce qui ne veut pas dire qu'au final, elle ne puisse pas être efficace. A cause de la crise économique, la tendance est d'acheter des disques moins coûteux autant que possible, et de n'acheter des disques performants que lorsque cela est absolument nécessaire. Reste qu'il vaut mieux simplifier les options de stockage, sinon la complexité devient vite ingérable, ce qui coûte cher. (...)

(25/07/2008 16:01:13)

Trimestriels EMC : la demande de stockage dope les résultats

La croissance des besoins de stockage des entreprises profite à EMC, dont les revenus ont progressé de 18% au deuxième trimestre, pour atteindre 3,67 Md$, contre 3,12 Md$ l'an dernier pour la même période. Même aux Etats-Unis, pourtant en proie à un ralentissement économique, le chiffre d'affaires bondit de 10%. Des résultats qui dépassent les prévisions des analystes, qui tablaient sur un CA de 3,56 Md$. La hausse des ventes a aidé le groupe à voir son bénéfice net progresser : il s'élève à 377,5 M$, soit 9,6% de plus qu'il y a un an. C'est la division Information Storage qui constitue le gros de l'activité du groupe, avec un CA de 2,87 Md$, en hausse de 14%. La division RSA (sécurité) progresse quant à elle de 15%, à 144 M$. Près de la moitié (48%) des revenus enregistrés par EMC au cours du trimestre proviennent de l'activité réalisée hors des Etats-Unis, un record pour le groupe. Les zones Asie-Pacifique et Emea se sont particulièrement distinguées avec des revenus en progression de 27% dans les deux régions. (...)

(25/07/2008 15:53:48)

Augmentation du CA trimestriel de Citrix mais chute des bénéfices

A la suite d'un deuxième trimestre où le ralentissement du marché a commencé à se faire sentir, Citrix révise à la baisse ses prévisions pour l'ensemble de son exercice 2008. En particulier, l'éditeur ramène à 25M$ le CA qu'il compte réaliser avec Xen Server, contre 50 M$ auparavant. Pour le deuxième trimestre, ce spécialiste du client léger qui se lance dans la virtualisation a vu son CA augmenter de 17%, mais son résultat net baisser de 35%. Cette baisse est due à une réduction drastique de la marge opérationnelle qui est passée de 21% il y a un an à 7%. Citrix a dépensé beaucoup plus en R&D (+55% à 74 M$) et pour soutenir ses ventes, son marketing et ses services (+20% à 169 M$). Citrix ne précise pas l'ampleur de l'impact d'un taux de change favorable dans la hausse de 22% du CA réalisé en Europe. Aux Etats-Unis, le CA a augmenté de 13%. Dans la perspective d'un tassement du marché, Citrix annonce qu'il va ralentir ses embauches. Au cours du deuxième trimestre, Citrix n'a recruté qu'une centaine de nouveaux salariés, soit moitié moins qu'au trimestre précédent. Les autres points saillants des résultats du deuxième trimestre - + 12% du CA licence à 153 M$ - + 16% du CA mise à jour à 137 M$ - + 23% du CA Services en ligne à 63 M$ - + 34% des prestations de services (conseil, formation et support technique) à 37 M$. (...)

(10/07/2008 15:55:02)

Sun décline son offre Open Storage dans toutes les tailles

Trois baies de stockage adaptées à presque toutes les entreprises (de celles de tailles moyennes aux très grands comptes) et un renouveau de son offre pour le calcul hautes performances (HPC), Sun ne lésine pas sur les moyens matériels pour promouvoir son initiative pour un stockage ouvert, Open Storage. A moins que le constructeur ne fasse l'inverse et ne se serve de ce label « open source » de ses logiciels pour vanter les économies d'échelles que permettent ses baies de stockage. En effet, le constructeur promet jusqu'à 10 fois plus d'économies en utilisant ses nouvelles baies J4000, à condition de les utiliser en combinaison avec le système d'exploitation Open Solaris, et le gestionnaire de fichiers ZFS. Pour Ray Austin, responsable marketing stockage de Sun, la majeure partie des économies est réalisée non seulement sur l'absence de prix de licences (l'offre Open Storage démarrerait ainsi à 1$ le gigaoctet), mais aussi sur l'unification possible des outils de supervision que Sun propose entre ses plateformes serveurs et stockage. Par ailleurs, Sun insiste toujours sur le fait que son offre est ouverte, « aux standards de l'industrie », et sans élément propriétaire. Il faudra néanmoins toujours payer l'assistance technique, et réaliser l'intégration avec une plateforme d'administration. La plateforme hybride « Thumper » peut abriter 4 coeurs et 48 disques [[page]] Vendues immédiatement à partir de 3000 dollars, les baies Sun Storage J4000 ont des capacités maximales allant de 46 To à 480 To. La plus petite, la J4200 peut accueillir jusqu'à 46 disques SAS (Serial attached SCSI) ou SATA (Serial ATA), et la plus grande la J4500 s'étend sur 4 racks et peut accueillir jusqu'à 480 disques SATA. Dans la même famille que ces trois baies, Sun a ajouté le connecteur Storage Tek SAS RAID Host Bus pour relier directement ces baies à des serveurs utilisant Linux, Windows ou Solaris dans des environnements Open Storage. Sun a également mis à jour sa plateforme hybride « Thumper » qui sert à la fois de serveur et d'espace de stockage - pour des entreprises disposant de peu de place. Le SunFire x4540 est donc désormais armé d'un processeur quadricoeur (contre un bicoeur pour son prédécesseur) et d'une mémoire de 32 Go (contre 16 Go précédemment) et peut stocker jusqu'à 48 disques. Il est disponible à partir de 22 000 dollars. (...)

(07/07/2008 16:51:38)

Pillar Data Systems automatise l'administration du stockage en fonction des applicatifs

Le fournisseur de systèmes de stockage intelligents Pillar Data Systems fête son troisième anniversaire avec deux nouveaux modèles. Les Axiom 600 et 600MC succèdent ainsi aux Axiom 500 et 500MC. Comme le rappelle David Dariouch, directeur consulting avant-vente pour la filiale française : « Nous n'avons en réalité qu'un seul système à notre catalogue, mais c'est un système évolutif. La philosophie demeure identique d'une version à l'autre. » Le constructeur fournit des systèmes de stockage capables d'organiser les données en fonction des applications afin d'optimiser l'accès à celles-ci. Les baies comprennent trois modules : un pilote, contrôleur unique et immuable, qui sert à administrer la machine ; le Slammer, contrôleur du stockage, qui évolue avec les différentes versions ; enfin, une unité de stockage avec un certains nombre de disques préconfigurés en fonction des applications. Le logiciel, quant à lui, stocke les données à des emplacements différents du disque suivant leur valeur pour l'entreprise ou encore la fréquence à laquelle on y accède. Résultat, Pillar Data Systems garantit le bon fonctionnement de ses environnements jusqu'à 80% d'occupation des disques. Des profils applicatifs à télécharger pour optimiser l'organisation des données Pour ses nouveaux modèles, l'Américain s'est surtout attaché à automatiser son logiciel. « Auparavant, pour paramétrer les systèmes, il fallait préciser, par exemple, que l'on avait une base de données qui faisait surtout de la lecture aléatoire, détaille David Dariouch. Cela nécessitait des connaissances en stockage. Désormais, il suffit quasiment d'indiquer que l'on dépose Oracle dans le système. » Pour ce faire, Pillar a mis au point des profils applicatifs, disponibles en téléchargement sur son site. « Si l'application n'accède qu'à un petit nombre de données, et ce en mode aléatoire, mais génère un fort volume de journalisation, c'est à dire d'écriture en mode séquentiel, il suffit de récupérer le profil qui déterminera la configuration de la machine en conséquence. » Pour l'instant, les profils d'applications en ligne existent pour Oracle, mais aussi SQL Server, Microsoft Exchange et Lotus Domino. [[page]] Pillar va mettre au point le même type de fonctions pour les hyperviseurs de VMware et de Xen. Il devrait ainsi optimiser pour ses Axiom, les systèmes Vmotion ou Xen Motion qui permettent de déplacer des machines virtuelles durant leur exécution. Par ailleurs, Pillar est financé par Larry Ellison, PDG d'Oracle, ce qui lui donne une évidente proximité avec l'éditeur avec qui il est engagé dans quelques co-développements. Il a ainsi mis au point des plug-in pour voir et administrer les volumes des systèmes Axiom directement depuis le SGBD d'Oracle. Plus puissants et plus performants en matière énergétique Côté matériel, le Slammer des nouveaux modèles 600 et 600MC intègre des processeurs deux fois plus puissants, deux fois plus de cache et deux fois plus de bande passante pour les entrées/sorties. Cette fois, Pillar a préféré les puces d'AMD dont le rapport entre la performance, le prix et la consommation énergétique s'est révélé, selon le constructeur, plus favorable que celui des processeurs d'Intel. L'efficacité énergétique et le dégagement de chaleur de l'ensemble du système ont d'ailleurs aussi été améliorés (pour un même niveau de consommation, Pillar Data Systems estime avoir augmenté de 100 à 200% l'efficacité de ses machines et leur capacité de stockage). Cela ne concerne pas que les processeurs mais aussi les ports réseau, les ports fiber channel, la mémoire cache, etc. A noter enfin que la version 600MC, pour Mission Critical, est composée de deux baies du modèle 600 avec une réplication synchrone entre les deux (tous les composants du modèle 600 sont déjà doublés) qui assure une reprise d'activité avec un taux de 99,999%. (...)

(04/07/2008 07:38:08)

La facture du stockage explose

Au niveau mondial, le coût total du stockage en entreprise devrait passer de 1,3 Md$ cette année à 2 Md$ en 2009. IDC, qui estime que le coût des infrastructures de stockage augmente annuellement de 50%, prédit aussi que, chaque année, la facture énergétique (alimentation électrique et climatisation) progresse de 19%. Tout cela pousse encore plus les entreprises à optimiser leurs ressources de stockage. La crise énergétique qui s'installe pour durer doit les inciter à rechercher des équipements plus économiques. IDC prédit que les fournisseurs livreront, au cours des cinq à venir, huit fois les capacités qu'ils ont fournies au cours des onze dernières années. (...)

(26/06/2008 16:52:54)

HP intègre la déduplication à ses serveurs de sauvegarde

Pour gagner de l'espace de stockage, la déduplication est la technologie à la mode du moment. Elle consiste à utiliser des pointeurs plutôt qu'à réécrire à chaque nouvelle sauvegarde la même donnée. HP vient de décider de l'intégrer à ses outils de sauvegarde. Et de deux manières différentes pour répondre d'une part aux besoins des datacenters et de l'autre à ceux des sites déportés et des PME. Pour les datacenters, HP propose de l' « accelerated deduplication » dans ses systèmes VLS 6000, 9000 et 12000. Sous ce terme, HP désigne en réalité une déduplication postérieure à la sauvegarde et qui se réalise objet par objet. Si l'objet en question (fichier ou base de données) a été modifié depuis la dernière sauvegarde, seuls les blocs modifiés seront conservés et le reste sera remplacé par des pointeurs vers les données originelles. Sauvegarder 50 fois plus de données dans un même espace disque [[page]] Cette méthode permet selon HP de sauvegarder 50 fois plus de données dans un même espace disque, tout en conservant une sauvegarde intacte pour une reprise d'activité rapide et en évitant que les serveurs de sauvegarde ne fonctionnent en permanence (et donc en économisant de l'énergie). Les appliances VLS sont commercialisées à partir de 18 000 euros HT pour la VLS6218, avec l'option déduplication incluse. Pour activer la déduplication sur les VLS déjà installées, la licence coûte 3000 euros pour 4 To. A noter que cette technologie de déduplication ne fonctionne pour l'instant qu'avec les logiciels de sauvegarde NetBackup et Data Protector. Pour les sites deportés et les PME, HP mise sur une technologie de « dynamic deduplication » dans ses plateformes D2D. Ici, il s'agit de dédupliquer à la volée les données en les traitant par bloc et non par objet. Une solution rapide, moins économe en espace final de stockage et qui a l'avantage de fonctionner quel que soit le logiciel utilisé pour effectuer les sauvegardes. Elle n'est présente que sur le haut de gamme des appliances D2D, les D2D 2000 et D2D 4000, et à partir de 4229 euros. (...)

(18/06/2008 18:20:50)

Le marché des logiciels de gestion du stockage trusté par 5 acteurs

Selon le cabinet Gartner, cinq fournisseurs détiennent 74% du marché des logiciels de gestion du stockage en 2007. Leurs parts de marché s'accroissent notamment via le rachat de petites sociétés. Ce sont toujours les mêmes aux places d'honneur. Cette fois-ci, la discipline considérée est « les logiciels de gestion du stockage » ou SMS (Storage Management Software) dans la terminologie du cabinet Gartner. Cela comprend énormément de sous-catégories : gestion des sauvegardes, de la réplication des données ainsi que l'archivage, de la déduplication ou de la virtualisation. Pour 2007, on trouve sur le podium : premier EMC (27% de parts de marché), deuxième Symantec (18%) et troisième IBM (13%). La plus forte croissance concerne Netapp, qui arrive en quatrième position avec 10% de parts de marché, et une croissance de 36% entre 2006 et 2007. HP est en cinquième place (6% de parts de marché). Forte croissance des solutions de sauvegarde et de réplication des données Le marché total a pesé 10,6 milliards de dollars en 2007, soit 12,2% d'augmentation par rapport à 2006. L'aiguillon est venu d'une forte croissance des solutions de sauvegarde et de réplication des données. La sauvegarde a crû de 11,4%, atteignant 2,6 milliards de dollars. Qu'est-ce qui explique une telle croissance pour des produits que l'on aurait pu croire déjà installés en nombre dans les entreprises ? « La migration vers la virtualisation a nécessité de sauvegarder les données. De plus, les entreprises ajoutent des options spécifiques par application, ainsi que la protection des sites distants. Enfin, la rénovation des architectures de sauvegarde des grandes entreprises a amené des achats dans ce domaine , affirme Alan Dayley, directeur de recherche, chez Gartner. En 2007, le top 5 des vendeurs détient 74% du marché des logiciels de gestion du stockage. Leurs parts de marché érodent lentement celles d'acteurs plus petits, essentiellement par le biais de rachats ou via l'extension de leurs offres vers l'archivage, la déduplication ou la virtualisation. La plus forte croissance pour le stockage hiérarchique Le segment technique qui a connu la croissance la plus forte est le HSM (stockage hiérarchique) et l'archivage, avec une percée de 30% en 2007. « Cela s'explique par le doublement des données stockées chaque année par beaucoup des grandes entreprises, qui réclame des outils ad hoc de gestion de grandes quantités de données, réparties entre plusieurs types d'unités de stockage, de différents coûts, conclut Alan Dayley. (...)

(16/06/2008 16:23:18)

Gartner compte mal les bons résultats de HDS

Finalement, les revenus de HDS dans le stockage en EMEA (Europe, Moyen-Orient et Afrique) ne sont pas mauvais, mais plutôt bons ! Voici l'étonnant rectificatif de Gartner, après la publication d'un communiqué au début du mois sur les chiffres du stockage, qui indiquait que HDS avait connu un recul de son chiffre d'affaires, d'une année sur l'autre, de 28,4 %. En réalité, explique aujourd'hui Gartner, après avoir été alerté par HDS, ce mauvais résultat apparent n'est dû qu'à un problème de fraîcheur de sa base de données. Le bon score, d'une année sur l'autre, serait de + 42,8%. (...)

< Les 10 documents précédentsLes 10 documents suivants >