Flux RSS
NAS

267 documents trouvés, affichage des résultats 41 à 50.
< Les 10 documents précédents | Les 10 documents suivants > |
(17/05/2011 10:36:35)
Annuels Overlap 2010 : L'intégrateur affiche un CA de 190,1 millions d'euros
Overlap publie les chiffres de son exercice annuel, terminé au 31 mars dernier. Le chiffre d'affaires (CA) s'élève à 190,1 millions d'euros (ME) en croissance organique de 5,2%. Le second semestre, avec 15 ,6% de hausse, a compensé la faiblesse des six premiers mois. La partie infrastructures représente 70% du CA, la partie services 30%.
Le périmètre de consolidation pris en compte exclut Ovelia (cédée le 18 juin 2010), exclut également Digilease (filiale de financement cédée car non stratégique), mais intègre ou plutôt ré-intègre MIB Suisse, mise en vente en juillet 2009, un projet abandonné depuis.
EMC World 2011 : Accélérer l'adoption du cloud
Paul Maritz, CEO de VMware a été le premier intervenant de ce deuxième jour de l'EMC World 2011 à Las Vegas. Pas d'annonces de la part de la société, mais une vision où il faut repenser l'IT et surtout les différentes couches de l'informatique traditionnelle. Très orienté vers le cloud hybride comme l'avait indiqué la veille Joe Tucci, Paul Maritz a décliné les propositions de VMware sur l'ensemble des briques (sécurité avec Vshield, commutation avec Vswitch, automatisation et design avec vCloud Director) qui composent cet environnement. Tous les composants sont là pour rassurer et accompagner les indécis vers le cloud. Il a indiqué « les mentalités doivent changer et ont changé dans l'IT » et d'ajouter que les prochains travaux de VMware porteront sur l'accompagnement de l'ère post PC et plus particulièrement autour du smartphone. « Les entreprises n'auront plus à payer un téléphone pour leurs employés, mais ils « virtualiseront » le smartphone de ceux-ci ». Cette virtualisation devra s'accompagner de la mise en place de règles de sécurité et d'usage particulier. « On doit être capable dans sa vie privée d'installer une version pirate d'Angry Birds sans se soucier de savoir si mes contacts professionnels risquent d'être transmis par le jeu » schématise le dirigeant de VMware.
Vplex Geo, la fédération de stockage distant prend de la distance
Retour au stockage avec VPlex, la solution d'EMC pour gérer les données sur de longues distances. Elle fédère un ensemble de service de stockage distant au sein d'une même entité de stockage virtuel. En 2010, Pat Gelsinger avait fait la démonstration d'un transfert de quelques machines virtuelles (26) sur une distance relativement faible, d'Hopkinton à Boston, VPlex local et Metro étaient nés. Aujourd'hui, la capacité a augmenté, plus de 2600 machines virtuelles ont été transférées entre Hopkinton et Las-Vegas (soit près de 2700 miles). Brian Gallagher, président de la division Storage a présenté Vplex Geo qui est une solution active/active, c'est-à-dire que la réplication des données se fait en quasi temps-réel. « Nous avons besoin d'un temps de latence inférieur à 50 millisecondes ». EMC a donc noué des partenariats pour l'accélération WAN avec les solutions de Silver Peak, Ciena, Brocade pour optimiser la gestion de la bande passante pour les applications. Brian Gallagher a aussi précisé que « VPlex Geo peut-être le trait d'union entre le cloud des fournisseurs de services et le datacenter des entreprises, il s'agit d'un facilitateur pour aller vers le cloud hybride » et d'ajouter que VPlex Global devrait s'affranchir de la distance en étant disponible sur l'ensemble du globe.
Quelques plus pour VNx et VMax
Si les annonces produits ont déjà été faites il y a quelques semaines, EMC a apporté quelques fonctionnalités supplémentaires sur son offre de stockage. Ainsi sur la partie haut de gamme, Symmetrix VMax va supporter nativement le FCoE (Fiber Channel Over Ethernet) et ainsi se connecter à terme aux infrastructures convergentes. D'autres fonctionnalités comme Federated Live Migration améliore la déplacement des applications d'un ancien système Symmetrix sur des solutions VMax. Enfin en matière de sécurité, EMC se repose sur l'expertise de RSA et propose Data Protection Manager pour sécuriser les données au sein de Symmetrix VMax. Toutes ces fonctionnalités seront disponibles à partir du mois de juin 2011.
Du côté des offres VNx, on notera l'apparition d'un connecteur pour l'appliance Google Search. Cette évolution devrait améliorer l'indexation des données au sein des sous-systèmes de stockage. Cela doit répondre à la problématique soulevée par Joe Tucci, le « déluge de data ». Pour Rich Napolitano, président de la division Stockage Unifié d'EMC « ce partenariat accélère la recherche des données au lieu de prendre des heures, il suffit des quelques secondes. La solution est dynamique, VNx envoie des alertes à l'appliance de Google qui indexe les modifications des données ». Par ailleurs, les baies VNx vont intégrer la Cloud Tiering Appliance, solution capable de déplacer des données obsolètes ou celles inutilisés vers un volume de stockage de bas niveau (dans le cloud par exemple).
(...)(10/05/2011 10:24:01)EMC World 2011 : Cloud et Big Data à la croisée des chemins
Après une édition 2010 rythmée par l'accompagnement des entreprises dans leur voyage dans le cloud, le millésime 2011 d'EMC World qui se déroule à Las Vegas a pris deux orientations : le cloud et les « Big Data ». Pour le premier, il s'agit à la fois d'accélérer l'adoption de l'informatique en nuage en mode privé, mais aussi vers le cloud hybride. Joe Tucci (photo ci-dessus), CEO d'EMC, a indiqué dans sa présentation inaugurale que 30% des entreprises ont sauté le pas vers le cloud en 2010, et que 35% supplémentaires le feront en 2011. « De plus en plus de fournisseurs de services proposent des offres de cloud public et nos clients souhaitent profiter de ces avantages et établir des passerelles avec leur datacenter ». Or pour entrer dans le cloud hybride, les clients sont confrontés à une problématique qui va devenir de plus en plus pesante, le traitement et la gestion des Big Data. « En 2010, 1,2 zetabytes de données se sont échangés, nous prévoyons dans la prochaine décennie la circulation de 35 zetabytes de données », explique Joe Tucci avant d'ajouter : « Nous sommes à l'intersection d'une énorme opportunité ». Il a rappelé que c'est dans ce cadre qu'est intervenu le rachat de Greenplum et Isilon.
Le projet Ligthning se dévoile
A ceux qui attendaient des annonces produits, le millésime 2011 d'EMC World est resté plutôt discret. Il faut dire que la présentation de la refonte de la gamme de stockage du fabricant a eu lieu au mois de janvier dernier à Londres. Pat Gelsinger (ci-dessous), président et COO de la société, a donc égrené la liste des récents lancements, la série VNX, y compris le VNXe pour l'entrée de gamme, jusqu'au VMax pour le haut de gamme. La nouveauté est intervenue sur le projet Lightning. Il s'agit d'une carte PCI express pour serveur capable d'accélérer les échanges d'entrées/sorties entre le serveur et les solutions de stockage. Ces cartes s'appuieront sur la technologie FAST d'EMC et selon Pat Gelsinger, « elles sont similaires à ce que fait Fusion-IO, même si les nôtres seront spécifiques ». Il est par contre resté évasif sur les partenaires technologiques, même si Intel travaille dans cette direction. Le rapprochement vers les serveurs a immédiatement provoqué des interrogations sur les ambitions d'EMC sur ce marché. Pat Gelsinger a été catégorique : « Nous n'irons pas concurrencer HP et IBM » et d'ajouter « dans les démonstrations, nous avons pu migrer une VM sur une baie de stockage, c'est très intéressant ». Les premières cartes ont été livrées en version bêta à certains clients testeurs.
Pat Gelsinger, président et COO d'EMC
Une division Big Data en ordre de marche
Du côté de Greenplum, acquise en juillet 2010, l'intégration a été rapide. Scott Yara, co-fondateur de Greemplum a indiqué qu'une entité spécifique a été créée au sein d'EMC, baptisée Data Computing Product Division. Celle-ci dispose de 150 salariés et prévoit d'atteindre 600 personnes d'ici la fin 2011. Côté produit, il faudra attendre le troisième trimestre pour voir apparaître une appliance de la nouvelle structure. Difficile d'en savoir plus sur le produit, Scott Yara et Luke Lonergan, CTO de Greenplum indiquent seulement que l'appliance intègrera des puces Intel et des disques standards. Autre annonce, le rapprochement avec la distribution Open Source Apache Hadoop. Cette dernière est annoncée comme plus rapide que celle existante (notamment avec Cloudera). L'objectif est à terme de construire « une brique complète d'analyse des Big Data » précise Scott Yara.
Illustration d'ouverture : Joe Tucci, CEO d'EMC.
Iomega sort des solutions NAS pour PME avec SSD et réplication
Plusieurs serveurs NAS évolutifs viennent compléter l'offre de stockage en réseau qu'EMC destine, par l'intermédiaire de sa filiale Iomega, aux PME et aux sites distribués des plus grandes entreprises. La gamme StorCenter PX Series comprend des modèles pour environnements de bureau (px4-300d et px6-300d, quatre et six baies) et montage en rack (px4-300r, quatre baies). Elle se décline en diverses versions, la première se présentant sans disque dur, jusqu'à celle pouvant accueillir 18 To. Ces baies NAS sont optimisées pour recevoir des disques SATA (serial ATA) de 3,5 pouces à 7 200 tours par minute, mais elles peuvent aussi utiliser des disques de 2,5 pouces. Les StorCenter PX présentent par ailleurs une interface iSCSI pour le transfert de données en mode bloc.
En option, ces serveurs reçoivent des disques SSD pour doper les performances, une nouveauté pour Iomega. Ils peuvent aussi disposer de fonctions avancées de protection de données. Dans ce domaine, Iomega annonce plusieurs niveaux de RAID (0, 1, 10, 5, 5+1 hot spare et 6), l'échange des disques à chaud, une alimentation sans interruption, des quotas d'utilisateurs ainsi qu'une capacité de réplication entre les dispositifs, pour assurer la continuité de l'activité ou la reprise d'activité après un plantage. Là aussi, cela constitue une première pour Iomega.
A installer en environnement virtualisé
Ces serveurs sont certifiés pour les environnements de virtualisation VMware vSphere 4.0, Citrix XenServer et MS Windows Server 2003/2008/2008 R2 HyperV. Sur EMC World, la semaine prochaine, le fabricant prévoit de montrer le transfert en streaming de multiples images virtuelles de postes de travail depuis des disques SSD vers un serveur StorCenter. « La virtualisation constitue vraiment une application cible pour ces produits », explique Marc Tanguay, directeur général des produits de stockage en réseau chez Iomega. « Cela procure des performances très intéressantes pour certaines applications, par exemple dans le cas de centres d'appels qui démarrent très vite le matin, ou encore pour les flux vidéos en streaming ».
Les nouvelles fonctionnalités logicielles dont bénéficient ces serveurs NAS devraient permettre à Iomega d'étendre sa présence dans les agences de grandes entreprises, estime Marc Tanguay. Les StorCenter PX proposent notamment les services de domaine Active Directory (AD DS) de Microsoft pour réseaux distribués, ce qui permet aux serveurs d'effectuer des réplications avec un datacenter centralisé.
Les prix des StorCenter px4-300d s'échelonnent de 799 euros (sans disque) à 2 000 euros environ (avec quatre disques de 3 To), ceux du px6-300d vont de 899 euros (sans disque) à 2 650 euros environ (avec 18 To). Enfin, le modèle rack, px4-300r démarre à 1 600 euros et monte à 2 850 euros (avec 12 To).
Illustration : Gamme StorCenter PX de Iomega
Trimestriels EMC : Un peu plus près des nuages...
EMC a présenté les résultats du 1er trimestre 2011 et on peut constater que la stratégie du géant du stockage est la bonne. Le chiffre d'affaires progresse de 18% à 4,6 milliards de dollars et le bénéfice net croît encore plus rapidement (+28%) pour atteindre 477 millions de dollars, un free cash-flow pour ce trimestre de 1,1 milliard de dollars. Pour expliquer ces bons résultats, EMC insiste sur les bonnes performances de certaines régions comme l'Europe et la zone Asie. Son coeur de métier reste très solide, l'activité stockage a augmenté de 16% et son offre Symmetrix a progressé de 25%. Le constructeur indique aussi la bonne tenue de sa dernière acquisition dans le domaine du stockage Isilon. Le groupe confirme donc ses prévisions pour le prochain trimestre. Sur l'exercice 2011, EMC table sur un chiffre d'affaires de 20 milliards de dollars et un bénéfice net de 2,5 milliards de dollars. Joe Tucci, CEO d'EMC met l'accent sur deux axes stratégiques, le cloud computing et les big data.
VMware à la fête aussi
La filiale, spécialiste des solutions de virtualisation a annoncé un chiffre d'affaires en hausse de 33%, à 844 millions de dollars. Le bénéfice net pour ce premier trimestre atteint 126 millions de dollars contre 78 millions en 2010. Les revenus de l'éditeur sont portés par les ventes de licences qui ont progressé de 34% à 419 millions de dollars, ainsi que de l'activité support et maintenance à 364 millions de dollars en croissance de +36%. Les prévisions pour le deuxième trimestre sont donc au beau fixe, un CA compris entre 860 et 880 millions de dollars.
Illustration: Joe Tucci
Crédit Photo: EMC
(...)(14/04/2011 11:16:10)Isilon Systems rafraichit ses baies de stockage big data avec les S200 et X200
Désormais une division d'EMC, Isilon Systems garde encore son indépendance tout en se positionnant comme la solution de stockage big data du groupe. Un peu moins d'un an après l'annonce de OneFS 6.0 et de deux outils de pilotage (SmartPools et InsightIQ), Isilon sort OneFS 6.5, met à jour deux logiciels de gestion des données, SyncIQ 3.0 et InsightIQ 1.5, et deux baies de stockage NAS, les S200 et X200.
Si OneFS intègre toujours les trois couches de stockage (Raid, système de fichiers et gestionnaire de volume) pour créer un espace de stockage unique d'une capacité maximale de 10,8 Pétaoctets avec un maximum de 144 noeuds, il ajoute avec la version 6.5 le support des protocoles NFS 4.0, CIFS plus Kerberized NFS v3, une amélioration de la sécurité et la possibilité d'utiliser des SSD avec des données et des métadonnées.
Une version plus aboutie d'insightIQ
Aurélien Goujet, directeur technique chez Isilon Systems France, nous a détaillé les autres nouveautés : « Avec OneFS 6.5 et SyncIQ 3.0, Isilon fournit désormais en temps quasi réel l'accès aux données et leur réplication. Pour gagner du temps lors des snapshots, seuls les blocs de données modifiés sont transférés et pas l'ensemble des fichiers sauvegardés ». Cet outil de réplication est de plus complètement intégré à Snapshot IQ pour n'afficher qu'une seule interface pour la sauvegarde et la restauration des données.
Pour ce qui concerne la version 1.5 d'InsightIQ, un outil d'analyse de la performance qui permet aux administrateurs d'identifier et d'éliminer les goulets d'étranglement, Aurélien Goujet avoue bien volontiers que cette mouture tient désormais ses promesses. Cette version serait plus aboutie que la précédente pour surveiller le réseau, les disques et les baies.
Dernières annonces, l'arrivée de la baie haut de gamme S200 (à partir de 40 770 euros par noeud), qui remplace l'IQ 5400S, et de la X200 (à partir de 19 440 euros par noeud), qui pousse vers la sortie la IQ 7200X.
Des performances en hausse
Architecturée autour d'un contrôleur Intel Xeon Westmere (2 fois quatre coeurs), la S200 supporte, selon le constructeur, plus de 1,4 million d'opérations (NFS) par seconde en entrée/sortie et offre un débit 85 Go/s à partir d'un seul système de fichiers. Aurélien Goujet précise que le précédent 5400S délivre 600 000 opérations/s (NFS) et autour de 45 Go/s. Les clients peuvent utiliser jusqu'à six SDD 200 Go fournis par STEC et 24 disques durs SAS de Hitachi GST (10 000 t/m) au format 2,5 pouces. Un cluster de S200 peut gérer un cache cohérent global de 13,8 To. Chaque noeud au format 2U (3,5 pouces) peut contenir jusqu'à 14,4 To avec ses 24 unités 2,5 pouces (2,1 Pétaoctets dans un cluster de 144 noeuds) et exploiter un maximum de 96 Go en mémoire vive. La connectivité est assurée par quatre liens Ethernet gigabit ou bien par deux liens gigabit et deux autres 10 gigabit. Ces options sont nouvelles chez Isilon. Auparavant, il n'était pas possible de modifier les baies à la commande pour ajouter de la mémoire vive ou changer les contrôleurs réseau.
Pour le X200 (à partir de 40 770 euros par noeud), le constructeur de Seattle annonce une capacité maximale de 24 To par noeud ou 5,2 Pétaoctets dans un cluster de 144 noeuds, 309 312 opérations (NFS) par seconde en entrée/sortie (288 000 pour le précédent modèle) et un débit de 35,7 Go/s (28,8 Go/s précédemment), avec une mémoire cache cohérente de 6,9 To. Chaque baie est équipée d'un seul processeur Intel Nehalem supportant un maximum de 48 Go en RAM. Les disques durs SATA ou SAS au format 3,5 pouces proposent une capacité de stockage maximale de 24 To par noeud (12 unités max). Avec ces deux baies, il est bien sûr également possible de mixer SSD et disques durs. La réallocation des données en fonction des classes de stockage répondant aux règles établies par l'administrateur justement épaulé par l'outils d'analyse InsightIQ 1.5.
Isilon explique que les noeuds (144 au maximum) peuvent être ajoutés à un cluster en 60 secondes pour augmenter la capacité globale de stockage, toujours dans un volume unique. Les S200 et X200 supportent les clients Microsoft Windows, Linux, Unix et Apple Mac OS X. Ces baies sont bien sûr compatibles avec les précédents modèles du constructeur. Une simple mise à jour vers OneFS 6.5 est nécessaire pour gérer la cohérence du cluster.
Intégration à venir
Si ces annonces d'Isilon sont de simples évolutions, elles apportent toutefois un gain de performances et une amélioration dans la protection des données. Mais rien de nouveau dans OneFS 6.5 du coté de la déduplication globale et de la compression depuis le rachat par EMC. « Nous n'allons pas développer un quatrième algorithme de dédup alors qu'il en existe déjà deux chez EMC avec DataDomain et Avamar. Nos développements sur ce terrain sont pour l'instant retardés et nous discutons avec l'ingénierie de DataDomain et d'Avamar sur ces sujets ». L'intégration technologique avec EMC reste donc à faire car cette génération de produits a été lancée et développée bien avant la finalisation du rachat en novembre dernier. Nous avions d'ailleurs découvert les protos de ces baies lors de notre visite du laboratoire de tests d'Isilon à Seattle, sans pouvoir en parler... Rendez-vous à l'EMC World de Las Vegas, du 8 au 12 mai prochain, pour découvrir les projets du géant du stockage dans ce domaine.
Illustration principale : Trois baies NAS Isilon S200
Telindus acquiert Eudasys pour renforcer son expertise sur le stockage
L'intégrateur réseau Telindus, 200 millions d'euros de chiffre d'affaires en 2010, rachète Eudasys qui en réalisait 27 la même année. Une opération menée par des partenaires rentables, Telindus affiche 12 millions d'euros d'Ebitda et Eudasys 2 ME, toujours pour 2010. Le groupe belge reprend 100% des parts d'Eudasys pour un montant de 12 ME.
Telindus achète une société en bonne santé financière, intéressante pour son expertise. Eudasys, partenaire historique d'EMC, a noué des relations avec Cisco et VMware. L'intégrateur cherchait justement à se renforcer dans le stockage. Une business unit était créée dans ce but il y a dix-huit mois. Les dirigeants d'Eudasys en prendront la direction, un signe fort que l'intégration se déroule de manière très positive.
Cette « BU » devrait représenter 25 à 30% du chiffre d'affaires de Telindus d'ici 2015. Dans l'immédiat, elle va développer une panoplie de services managés autour du stockage.
Au coeur de la Silicon Valley : Petit détour en Floride chez Datacore (Part 1)
Fondée en 1998 et bien connue pour ses solutions de virtualisation de stockage, Datacore, qui réalise aujourd'hui un chiffre d'affaires de 50 millions de dollars environ n'est plus vraiment une start-up avec 600 employés dans le monde. L'esprit reste toutefois toujours axé sur l'innovation et sur le développement technologique comme nous l'a confirmé la rencontre avec le lumineux Ziya Aral (voir illustration ci-dessous), chairman et co-fondateur de la compagnie avec George S. Teixeira et John Bocskor.
À l'origine de plusieurs brevets clefs dans l'industrie IT, Ziya Aral est toujours en charge des développements technologiques de la compagnie avec récemment la publication d'un livre blanc sur une architecture de stockage dédiée au déploiement de plusieurs centaines de postes de travail virtualisés (voir PDF). L'ambition de ce projet était de fournir une solution performante pouvant supporter d'importantes contraintes. « Nous ne sommes pas dans le business VDI mais dans celui du stockage », tient à préciser le charismatique chairman de la société, « mais nous sommes la clef de la concentration. Des centaines de machines virtuelles sont une charge énorme pour le stockage ». Dans cette configuration, il est devenu très important de réduire la latence et d'accélérer les échanges entre les différents hosts. « Nous ne vendons pas de VDI mais une architecture pour accélérer le VDI qui réduit de 32 dollars environ par poste de travail le coût d'acquisition du matériel. Cette plate-forme dédiée à la VDI repose sur la solution de virtualisation SANMelody, l'hyperviseur Hyper-V et une paire de serveurs équipés de Windows Server 2008, capables de supporter jusqu'à 220 VD (virtual desktop). Mais Datacore peut aller plus loin avec une configuration Star (en étoile) supportant plusieurs centaines de VD.
Avec une solution de ce type, Datacore se positionne comme un fournisseur de software pour l'infrastructure et pas seulement pour le stockage. « Les solutions de stockage de classe entreprise sont très couteuses, souligne George S. Teixeira (voir ci-dessus), le CEO de la compagnie, « et nous apportons cette technologie aux PME-PMI à un coût avantageux. » Selon une récente étude IDC publiée en 2011, parmi les freins au développement de la virtualisation de serveurs, les clients mettent en avant le surcoût lié au stockage. Datacore se fait fort de maitriser ces coûts avec son architecture virtualisée qui peut travailler au-dessus des principaux systèmes de stockage (Hitachi, EMC, IBM...). « Le matériel peut aller et venir, mais notre couche applicative reste et l'automatisation des principales tâches d'administration s'allége avec notre solution SANSymphony-V release 8 », précise le CEO de la compagnie.
Un marché qui évolue très vite
Ziya Aral, le directeur technique de la compagnie, reste toutefois circonspect face aux tendances du marché, « nous sommes une compagnie technologique, mais le monde change tous les six mois. Il n'est pas possible de travailler de manière scientifique si tout change tous les six mois. Le marché ne doit pas devenir conservateur, mais la stabilité est nécessaire ». Datacore ne propose par exemple pas encore de gestion des données de type multitiers comme chez 3Par ou EMC, « le tiring et les SSD sont difficiles à concilier en temps réel », nous proposons bientôt une progression par semaine et une fonction de politique d'usages sera disponible ce trimestre, indique Ziya Aral.
Avec le vent en poupe, Datacore, qui n'est pas coté en bourse, suscite l'intérêt de plusieurs investisseurs du marché. Ziya Aral nous a ainsi bien volontiers avoué avoir refusé une offre de 500 millions de dollars pour le rachat de la compagnie. « La vente ou une introduction en bourse ne sont pas encore à l'ordre du jour, mais si quelqu'un vient avec une meilleure offre nous aviserons », précise George S. Teixeira. « Mais pour l'instant nous restons indépendants et comptons bien prendre avantage de cet état ».
Aujourd'hui, la compagnie américaine réalise 70% de son chiffre d'affaires à l'international et 30% seulement aux États-Unis. Dans bien des compagnies IT US, c'est exactement l'inverse.
(...)(23/03/2011 17:40:36)Des SSD plus convaincants chez Seagate
Seagate a annoncé la sortie de cinq solutions de stockage professionnel qui comprennent à la fois des SSD et des disques durs milieu et haut de gamme. Ces mises à jour bienvenues renforcent à la fois les performances et la capacité de ces périphériques de stockage. Seagate a ainsi augmenté - de 16 à 64 Mo - la quantité de mémoire cache sur l'ensemble de ses disques durs, pour accroitre les performances de chaque modèle. Tous ces nouveaux disques sont en outre livrés avec une option d'auto-cryptage AES-256 bits (Auto-Lock).
À l'exception du Constellation ES.2 (3 To) au format 3,5 pouces, tous les autres disques sont au format 2,5 pouces. « Nous sommes clairement sur une normalisation du format 2,5 pouces notamment avec l'interface SAS. Avec ce choix nous pouvons contribuer à réduire les coûts de fonctionnement des fabricants [de systèmes de stockage] et accroître leur efficacité », a expliqué John Shirley, directeur produits SSD chez Seagate.
Des produits mieux adaptés au marché
Après une première famille SSD Pulsar guère convaincante et pas vraiment destinée à faire du volume - de l'aveu même du constructeur - Seagate revient avec plus d'ambition avec ses séries Pulsar.2 (mémoire flash MLC) et Pulsar XT.2 (SLC). Ces produits sont en fait issus d'un partenariat technologique annoncé en aout dernier avec Samsung, le plus grand producteur mondial de mémoire flash NAND. Ces SSD Pulsar 2 reposent donc sur des composants NAND Samsung gravés en 32 nanomètres (nm) et des contrôleurs Seagate comme ce dernier tient à le préciser.
Le modèle haut de gamme, le Pulsar XT.2, embarque des composants SLC (single-level cel) qui offrent une durée de vie 10 fois supérieure aux modèles équipés de MLC (multi-level cel). La compagnie offre donc, pour la première fois, une garantie de 5 ans sur ses SSD d'une capacité de 100, 200 ou 400 Go livrables avec une interface SAS (Serial-Attached SCSI) et offrant un débit de 6Gbit/s. Mais ce qui distingue vraiment cette ligne Pulsar, c'est son endurance qui repose sur un algorithme de détection et de correction d'erreurs.
Seagate avance que sa série Pulsar XT.2 peut supporter jusqu'à 35 cycles d'écriture complets tous les jours pendant cinq ans, ce qui revient à stocker 25 pétaoctets de données pendant la durée de vie du SSD. Le XT.2 Pulsar est jusqu'à 50% plus rapide que son prédécesseur et bénéficie d'un taux de lecture / écriture aléatoire de 48 000 et 22 000 E / S par seconde,. Il offre une vitesse de lecture / écriture séquentielle de 360 Mo/s et 300 Mo/s, avec un temps de réponse d'environ 10 millisecondes.
Un SSD MLC 800 Go
Seagate propose également un SSD de plus grande capacité (jusqu'à 800 Go) , le Pulsar.2 qui repose sur des composants mémoire flash NAND de type MLC capable de stocker deux bits de données par cellule contre un seul bit pour les SLC. Une capacité de stockage plus grande donc, mais une durée de vie inférieure. Ainsi, si le Pulsar.2 est proposé avec 100, 200, 400 ou 800 Go, la garantie se limite ici à trois ans.
Selon John Shirley, le Pulsar.2 est le premier SSD sur base MLC construit pour un usage professionnel par «un fournisseur de classe entreprise. » Il est livré au choix avec une interface SATA 3.0 ou SAS (6 Gbit/s). Le modèle SAS sera un peu plus cher, car il dispose de deux contrôleurs. En cas de panne du premier, le second prend le relais. Et avec la mise à jour de l'algorithme de détection et de correction d'erreurs, Seagate annonce avoir réduit de 0,55 à 0,44% le taux de produits subissant une panne durant une année (AFR ou Average Failure Rate) pour 100 unités.
[[page]]
Curieusement, Seagate ne nous a pas fourni d'évaluation des performances de son Pulsar.2. Le constructeur doit encore travailler sur le firmware pour arriver à sortir des chiffres en cohérence avec la concurrence. Et comme les produits ne sont pas encore disponibles, nous ne sommes pas en mesure de corroborer les résultats du Pulsar XT.2 ou de tester le Pulsar.2 !
Un 15 000 tr/min au MTBF amélioré
Sur le front des disques durs, Seagate introduit deux modèles de classe entreprise, les Savvio 15.000 et 10.000 tr / min. Le constructeur a ici simplement augmenté les capacités de ses produits pour serveurs et baies de stockage. Le nouveau 15K.3 est disponible en 146 et 300 Go, ce qui double la capacité de son prédécesseur, le 15K.2.
Le 15K.3 est livré avec une interface SAS 6Gbit/s, et bénéficie lui aussi d'une mise à jour de son logiciel de correction d'erreurs pour améliorer son AFR qui passe ici aussi de 0,55 à 0,44%. En d'autres termes, le Savvio 15K.3 passe à un MTBF de deux millions d'heures par rapport au 15K.qui plafonnait à 1,6 million d'heures. Selon Seagate, le 15K.3 offre un taux de transfert soutenu de 201 Mo/sec contre 161 pour le 15K.2. Un domaine dans lequel le Savvio 15K.3 ne fait pas mieux que son prédécesseur c'est la consommation d'énergie : 7,9 watts contre 7,2 watts pour le 15K.2.
Seagate a également renforcé la capacité de son unité de stockage moyenne gamme, le Savvio 10K.5, qui est maintenant disponible avec des capacités allant de 300 à
900 Go. Son prédécesseur, le 10K.4, n'offrait quant à lui que 450 à 600Go. Comme le
Savvio 15K.3, le 10K.5 est aussi livré avec un contrôleur SAS avec 6 Gbit/s. Seagate, propose également une interface Fibre Channel pour ce disque dur. « La raison pour laquelle nous avons gardé l'interface Fibre Channel, c'est parce que nous avons encore une poignée de [fabricants de systèmes] qui utilisent le Fibre Channel. Maintenir l'interface les aide à passer sur le SAS », nous a déclaré Emily Ford, directeur produit HDD chez Seagate. Le taux de pannes moyen de ce disque dur est identique à celui du Savvio 15K.3. Le 10K.5 offre un taux de transfert moyen soutenu de 168 Mo/s alors que le 10K.4 plafonnait à 141 Mo/s. Et ceci pour une même consommation électrique (8,4 watts).
Pour conclure, Seagate propose un disque dur haute capacité à 7200 tr/min : le Constellation ES.2 avec un maximum de 3 To. Le constructeur le destine aux bibliothèques de bandes virtuelles et et aux solutions d'archivage ne ligne. Ce disque dur dispose d'un outil baptisé « RAID rebuild » capable de vérifier l'intégrité des données en cas de panne. Comme tous les disques de grande capacité, le Constellation a cinq plateaux dotés de deux têtes lecture / écriture : soit un total de 10 têtes lecture / écriture par disque. Donc, si une lecture / écriture échoue, le lecteur essaie automatiquement d'utiliser la seconde tête.
Consommation en légére baisse
Le Constellation ES.2 est livrable avec une interface SATA 3.0 ou SAS. Au chapitre performances, il monte à 155 Mo/sec en débit soutenu. En dehors de la capacité, l'autre grand changement sur le disque est une baisse de la consommation électrique qui passe de 8 à 7,4 watts. Mais contrairement aux disques durs précédents, le Constellation affiche un taux de pannes de 0,74% soit un MTBF de 1,2 million d'heures.
Seagate prévoit de livrer le Savvio 10K.5 avant la fin du mois. Le Constellation ES.2 sera disponible début du mois prochain et le Savvio 15K.3 est prévu pour le deuxième trimestre tout comme les deux Pulsar.
< Les 10 documents précédents | Les 10 documents suivants > |