Flux RSS
Infrastructure serveur

2924 documents trouvés, affichage des résultats 951 à 960.
< Les 10 documents précédents | Les 10 documents suivants > |
(13/08/2010 14:35:25)
Micron livre son disque SSD pour serveurs et baies de stockage
Avec le RealSSD P300, Micron Technology annonce la livraison d'un disque SSD (solid state drive) pour applications d'entreprise qui est, selon lui, le plus rapide du marché. Disponible dans des capacités de 50 Go, 100 Go et 200 Go, celui-ci est destiné à équiper les serveurs, les baies de stockage et les stations de travail haut de gamme.
Prévu à l'origine pour le mois de juin, le produit a subi des tests supplémentaires qui ont décalé la date de lancement, a indiqué un porte-parole de Micron, en précisant que les fabricants de matériel disposaient déjà de quelques exemplaires du P300. A la différence de l'actuelle version grand public, le SSD C300, qui utilise une mémoire flash NAND sur des cellules multi-niveaux (MLC), le SSD P300 utilise une cellule NAND haut de gamme en couche unique (SLC), ce qui a pour effet d'augmenter le débit et la longévité.
Jusqu'à 360 Mo/sec en lecture et 275 Mo/sec en écriture
Micron fait remarquer que l'association d'une cellule NAND SLC, d'un firmware spécifique et d'une interface Serial ATA (SATA) à 6 Bits/sec -une première pour le marché du disque SSD de classe entreprise- permet à son disque d'atteindre une vitesse de lecture pouvant aller jusqu'à 360 Mo/sec et une vitesse d'écriture allant jusqu'à 275 Mo/sec, soit les plus rapides du marché. Comparativement, le RealSSD C300 de Micron construit sur huit canaux parallèles internes sur lesquels sont répartis des puces à mémoire flash entrelacées, affiche des vitesses de lecture/écriture en mode séquentiel de 355Mo/sec et de 215Mo/sec respectivement. Selon Dean Klein, vice-président du développement des systèmes mémoire chez Micron, « le RealSSD P300 est le plus rapide des disques SATA du marché. Il est capable de faire le travail de plusieurs disques durs, surpassant même dans certains cas un RAID de 12 disques durs. »
Robb Mankin, directeur senior des produits SSD Enterprise chez Micron, a ajouté que le P300 pouvait soutenir un taux d'entrée-sortie par seconde (IOPS) de 44 000 en lecture et de 16 000 en écriture. Selon les tests de performance réalisés par Calypso Systems, le P300 est 15 fois plus rapide que certains disques SSD de classe entreprise concurrents comme le X25-E d'Intel et le SS805 de Samsung. Les benchmarks de Calypso montrent que le P300 est de deux à seize fois plus rapide en lecture séquentielle que les disques SSD d'Intel et de Samsung.
1,9 To chaque jour pendant cinq ans
Toujours selon Calypso, le disque de Micron a effectué 19 561 IOPS, contre 1 182 et 7 556 pour les disques d'Intel et de Samsung. Calypso a également établi que le P300 était plus de trois fois plus rapide en temps de réponse moyen que les deux disques SSD concurrents. Robb Mankin insiste sur le fait que ces chiffres « ne résultent pas de mesures brutes ou instantanées, mais reflètent ce que le lecteur est capable de faire en état d'équilibre, quand il est soumis à des charges de travail élevées ». Selon le directeur produit de Micron, « c'est ce que les utilisateurs pourront observer dans leurs systèmes, sur une base de travail fiable et constante ».
En raison de la mémoire SLC NAND et du logiciel qui augmente la capacité en écriture en répartissant les données de manière à ne saturer aucun secteur du disque, le P300 est capable de supporter un taux de plus de 3,5 Po de données sur une période de cinq ans, « soit l'équivalent de 1,9 To de données en écriture tous les jours pendant cinq ans », a estimé Robb Mankin. Aujourd'hui, tous les disques SSD disposent d'un logiciel de gestion du mode d'écriture, mais les fabricants mettent surtout en avant la qualité de leurs algorithmes pour valoriser ces tâches qui optimisent la répartition en écriture.
Sans vouloir révéler le prix final du produit - celui-ci ne devrait pas être disponible avant le mois d'octobre - Robb Mankin a indiqué que Micron vendra son P300 « à un tarif compétitif ».
Annuels Cisco : un quatrième trimestre en forte hausse
C'est sur un très bon trimestre que l'Américain Cisco a clos son année fiscale fin juillet. L'équipementier réseau a vu son chiffre d'affaires croître de 27% sur les trois derniers mois de son exercice, à 10,8 milliards de dollars, et son bénéfice net grimper de 79%, à 1,93 Md$. Sur douze mois, ses ventes ont progressé de 11% pour atteindre 40 milliards de dollars et son bénéfice net de 26,6% à 7,7 Md$. La marge opérationnelle Gaap du groupe a gagné 2,6 points, à 22,9% du chiffre d'affaires (contre 20,3% sur l'exercice 2009).
En avril, Cisco a définitivement acquis en avril le Norvégien Tandberg, spécialiste des solutions de téléprésence. Cette opération, estimée à 3,4 milliards de dollars, renforce son activité sur un marché où le constructeur californien était déjà présent. Parallèlement, le groupe dirigé par John Chambers a poursuivi sa percée sur le marché des serveurs, avec sa ligne UCS (Unified Computing System), lancée en mars 2009. Sur ce terrain, il totaliserait désormais une base installée de 1 700 clients.
+27% sur les commutateurs, le sans fil et la sécurité
Ainsi, si les ventes de ses gammes traditionnelles d'équipements réseaux ont enregistré de belles progressions sur le quatrième trimestre (+27% pour les commutateurs, les produits sans fil et la sécurité, +15% sur les routeurs), c'est sur ses autres activités que l'augmentation est la plus sensible : +139% pour un chiffre d'affaires (CA) de 900 M$. Toutefois, ces revenus ne pèsent encore que 8,3% du CA trimestriel et 6,5% du CA annuel. Lors de l'annonce des résultats financiers, John Chambers a indiqué que des ventes clés seraient bientôt annoncées dans cette division, réalisées avec des entreprises où l'on ne se serait pas attendus à voir Cisco gagner.
A noter que l'activité services de la société a elle aussi bien progressé sur l'année, de 9%, à 7,6 Md$.
Des prévisions optimistes dans un contexte incertain
Sur le trimestre entamé, le premier de l'exercice 2011, les prévisions de croissance du groupe oscillent entre 18 et 20% (les estimations à plus long terme s'établissent entre +12 et +17% par trimestre). Cet optimisme mesuré s'inscrit dans un contexte économique qui reste incertain, a souligné John Chambers. « L'économie globale envoie des signaux mitigés, Cisco aborde donc avec prudence les trimestres qui s'annoncent ».
En dépit de ces réserves, le groupe a confirmé son intention d'ajouter près de 3 000 collaborateurs à ses effectifs dans les prochains trimestres. Au cours des deux derniers, il a déjà embauché plus de 3 000 personnes. Les recrutements viendront en grande partie renforcer les nouvelles activités du constructeur. En juin 2010, Cisco employait 70 714 personnes dans le monde, contre 65 545 un an plus tôt.
Cisco a recruté 2 100 salariés sur le dernier trimestre, sans compter les équipes de Tandberg qui ont rejoint le groupe, a précisé John Chambers. Soixante-dix pour cent de cet effectif a été embauché aux Etats-Unis, dont environ 600 personnes dans l'état de Californie où se trouve le siège social de Cisco.
Les ventes de l'équipementier ont été soutenues sur toutes les zones géographiques, a ajouté John Chambers, avec une performance plus marquée en Inde (+50%). Elles ont progressé de 20% en Chine et aux États-Unis.
Une pénurie de DRAM se profile, selon iSuppli
Les fabricants de memoires vives sont actuellement confrontés à des problèmes d'approvisionnement, constate le cabinet d'études iSuppli. D'une part, ils n'arrivent pas à se procurer les équipements de production nécessaires à la fabrication. D'autre part, ils rencontrent des difficultés dans la mise en oeuvre des plus récentes technologies.
Au moment où le marché des ordinateurs personnels repart (22,4% de progression au second trimestre par rapport à l'an dernier), les fabricants de DRAM ont toujours du mal à se remettre de la récession. L'an dernier, beaucoup d'entre eux manquaient de ressources pour acheter de nouveaux équipements. Cette année, ils ont donc inondé les fournisseurs de commandes. Dans le secteur de la DRAM, la concurrence impose aux fabricants de livrer le plus possible de composants, de la taille la plus réduite, dans les délais les plus courts. Cela les oblige à acquérir de nouveaux équipements chaque année mais aussi à avoir plus de compétences pour produire toujours plus de chips par tranche de silicium.
Les prix des PC ont déjà augmenté cette année
Un problème d'approvisionnement en DRAM pourrait pousser les prix à la hausse. D'où le risque de voir le prix des PC augmenter. iSuppli ne fait aucune prévision sur la hausse qui résulterait de ces problèmes. Mais Acer, l'un des plus grands fabricants de PC au monde, fait remarquer que les prix des ordinateurs personnels ont déjà augmenté cette année, pour la première fois depuis cinq ans, pour des raisons similaires. La hausse du prix des mémoires DRAM figurait déjà parmi les coupables.
Le principal outil qui fait actuellement défaut aux fabricants de DRAM est un équipement de lithographie par immersion qui, selon iSuppli, ne seront pas disponibles en nombre suffisant cette année. En effet, le cabinet d'études estime que les entreprises chargées de produire ces équipements essentiels ne pourront pas en livrer suffisamment pour répondre aux besoins de l'industrie. Seuls quelques fabricants de DRAM disposent déjà du matériel dont ils ont besoin.
Trois fabricants de DRAM tirent leur épingle du jeu
L'autre problème soulevé par iSuppli est lié au rendement dans la fabrication des puces. Les fabricants de DRAM s'emploient en permanence à produire des puces plus petites. Mais la technologie pour y parvenir est longue à maîtriser et d'autant plus difficile à mettre en oeuvre que les tailles sont de plus en plus réduites.
Actuellement, les fabricants de DRAM sont confrontés à des problèmes liés à la technologie sub 50-nm, fait savoir iSuppli, indiquant que seuls quelques fabricants de puces ont réussi à faire la transition vers cette technologie de pointe. Selon lui, trois d'entre eux, Samsung Electronics, Hynix Semiconductor et Micron Technology, se trouvent en position favorable pour profiter de la hausse du prix des puces, parce qu'ils maîtrisent déjà la dernière technologie. Un rapport préliminaire publié par Gartner, confirme que Samsung, qui a capté 35,3 % des revenus de l'industrie de la DRAM au cours du deuxième trimestre, a maintenu son avance, suivi par Hynix avec 20,9 %, Elpida Memory avec 17,3 %, Micron avec 13,3 % et Nanya Technology avec 4,4 %. (...)
VMforce vise au-delà de Salesforce
Annoncé en avril, le projet VMforce, qui associe VMware et Salesforce.com, se voulait être le « premier cloud d'entreprise pour les développeurs Java ». Même si la technologie ne sera dévoilée que cet automne, via une preview dédiée aux développeurs, Rod Johnson, responsable de la division SpringSource, rachetée par VMware l'an dernier, a laissé filtrer quelques informations sur les usages potentiels durant une interview.
« Les killers applications sur cette plateforme seront celles qui utiliseront des données Salesforce. Elles amélioreront la solution tout en interagissant avec sur les mêmes serveurs sur lesquelles elles ont été développées, et cela donnera des performances impressionnantes » affirme-t-il. « Mais VMforce sera aussi capable de faire tourner des applications Java d'entreprise. Vous pourrez programmer n'importe quelle application sur la plateforme et bénéficier de l'expérience de Salesforce ». En somme, les développeurs pourront à terme créer leurs programmes avec SpringSource et les déposer sur le cloud VMforce, qui intègrera nativement les plateformes mobiles et les outils de collaboration.
Des nuages et des langages
Il ajoute d'ailleurs qu'il a fallu, lors de la conception de ce cloud basé sur la technologie de virtualisation vSphere, mettre en place une interface suffisamment familière pour les développeurs Java et de rendre leurs logiciels compatibles avec le modèle de données Salesforce. Tandis que les clouds du type IaaS (infrastructure-as-a-service) tels que l'EC2 d'Amazon obligent les clients à administrer leurs propres serveurs virtuels, la solution PaaS (platform-as-a-service) comme VMforce rendent ces tâches inutiles. Tout ce qu'il reste à faire aux utilisateurs, c'est coder.
Malgré cela, chaque modèle de cloud a ses avantages. En IaaS, même s'il faut gérer plus de paramètres, tous les modèles de programmation sont soutenus. Avec du PaaS, les applications sont certes plus rapides à mettre en place, mais disposent d'une moindre portabilité, nécessitant d'être conçues selon le langage supporté par le fournisseur. « Notre but a toujours été d'optimiser la portabilité avec Spring, et nous essayons de faire en sorte que les applications Java puissent fonctionner sur différents clouds, hyperviseurs ou même sur les serveurs n'ayant pas été virtualisés », précise Rod Johnson.
Google App Engine : entre concurrence et partenariat
A l'heure actuelle, les principaux acteurs du cloud de type PaaS sont Windows Azure, Google App Engine et Salesforce. Le fondateur de Spring considère à ce propos que Google App Engine est entouré de trop de restrictions concernant ce qu'il est possible de faire avec les applications Java, ce que VMforce devrait selon lui grandement étendre pour coïncider avec les besoins des entreprises. Malgré ces critiques, VMware et Google se sont associés pour que les applications Java créées avec Spring tournent sur le cloud de Google, qui supporte à la fois Java et Python.
Il conclut enfin sur la relative indépendance de SpringSource par rapport à VMware malgré le rachat. « Nous contrôlons en grande partie notre propre destinée, et je suis moi-même très impliqué dans la stratégie globale de VMware ».
Facebook double la taille de son datacenter
Facebook a décidé de doubler la taille de son datacenter en cours de construction dans l'Oregon avant même que la première phase n'ait été achevée, attestant ainsi du fort développement de l'entreprise de Mark Zuckerberg. En janvier, le réseau social avait annoncé la mise en chantier de son propre datacenter de 13 700 mètres carrés à Prineville, prévu pour le début de l'année prochaine. Désormais, il faudra ajouter 14 900 mètres carrés à cette superficie.
« Afin de nous adapter à notre croissance, nous avons décidé d'avancer la mise en place de la seconde phase de notre projet, qui n'était alors qu'une option lorsque nous l'avons lancé en début d'année. Cet ajout devrait être terminé début 2012 », a affirmé sur le blog de l'entreprise Tom Furlong, directeur des opérations sur site pour Facebook. Le réseau social s'approchait des 400 millions d'utilisateurs en janvier, et a, le mois dernier, dépassé le cap des 500 millions.
Bientôt au tour de Twitter
Twitter a récemment annoncé qu'il possèderait bientôt son propre datacenter. A l'instar de Facebook, ses serveurs sont pour l'instant hébergés par d'autres entreprises. En disposant de ses propres infrastructures, Twitter pourra mieux contrôler la gestion de ses données et possiblement éviter les pannes.
Facebook indique employer de 150 à 200 personnes sur son site de construction, et que le datacenter en lui-même créera 35 emplois. Greenpeace ne devrait par contre pas bien prendre l'annonce, le groupe ayant en effet critiqué dès le départ le choix du site. Ce dernier serait alimenté par une centrale locale tirant son électricité du charbon, là où Greenpeace aurait préféré que la construction se déroule sur un site ayant accès à une source d'énergie renouvelable. Contre-argumentant, Facebook avait déclaré avoir choisi l'Oregon pour son climat sec et tempéré, rendant possible l'utilisation du refroidissement par évaporation pour ses serveurs, au lieu d'un dispositif mécanique. L'entreprise va même jusqu'à affirmer que ce datacenter sera l'un des plus efficaces au monde en termes d'énergie. (...)
Brevets : Microsoft et Salesforce.com trouvent un terrain d'entente
Microsoft et Salesforce ont réglé leur différend portant sur la violation croisée de propriété intellectuelle, chacun ayant porté plainte contre l'autre. L'accord qu'ils viennent de conclure donne aux deux éditeurs une protection sous couvert du portefeuille de brevets de l'autre. La société dirigée par Steve Ballmer Microsoft a également indiqué qu'elle recevrait une compensation de la part de Salesforce.com, mais sans en préciser le montant. En pointillé, Microsoft laisse entendre qu'il a obtenu la meilleure part dans cet accord.
La bataille a débuté en mai quand l'éditeur de Redmond a porté plainte contre Salesforce.com, estimant que la plateforme de CRM (gestion de la relation client) de ce dernier utilisait illégalement 9 de ses brevets. Il réclamait une compensation financière. Quelques semaines plus tard, la société de Marc Benioff poursuivait à son tour Microsoft, estimant que l'environnement .Net et l'application collaborative SharePoint violaient eux aussi des brevets dont elle avait la propriété intellectuelle.
Microsoft a déjà signé 600 accords de licence
Dans le communiqué publié le 4 août 2010 par Microsoft pour annoncer l'accord trouvé, Horacio Gutierrez, vice-président et responsable juridique de l'éditeur pour la propriété intellectuelle et les licences, a déclaré que le « portefeuille de brevets de Microsoft compte parmi les plus importants de l'industrie du logiciel et qu'il résulte de décennies d'innovation ». Selon lui, l'accord signé montre que « les entreprises peuvent se livrer une concurrence féroce tout en respectant les droits relatifs à la propriété intellectuelle de l'adversaire ». Microsoft a indiqué que son programme permettant d'utiliser ses brevets (IP licensing program), lancé en décembre 2003, avait conduit à plus de 600 accords de propriété intellectuelle, notamment avec Apple, HP, Amazon.com, LG, Nikon, Novell, Samsung et bien d'autres.
Illustration : Horacio Gutierrez, vice-président et responsable juridique de l'éditeur pour la propriété intellectuelle et les licences[[page]]
Des acteurs majeurs comme Google, Amazon et Salesforce.com, qui ont évolué exclusivement dans le cloud ont su faire valoir les avantages de ce dernier pour les applications et le stockage, amenant les entreprises à migrer vers le cloud. L'avantage de Microsoft réside surtout dans sa vision du cloud. Certes, rappellent nos confrères de PC World, il est plus facile de prendre une position dominante dans les technologies client-serveur, la messagerie, et les outils de productivité (sur la base de logiciels et de services auxquels les entreprises font déjà confiance), puis de convaincre les clients de migrer vers le cloud, plutôt que de s'installer d'emblée dans le cloud et de construire des outils et des services crédibles pour concurrencer Microsoft.
Par le passé, Microsoft a déjà montré sa capacité à entrer sur un marché en fin de partie et à se l'approprier jusqu'à devenir après coup une force dominante. Est-ce que ce scénario va aussi se dérouler sur le terrain du cloud. Au départ, Microsoft semblait s'opposer à cette évolution vers le cloud, luttant pour le modèle client-serveur traditionnel sur lequel il avait construit un empire pour son système d'exploitation desktop et serveur. Quand il a cessé de nier la tendance - le cloud s'étant développé malgré lui - il a reconnu le changement culturel et s'est demandé comment s'y adapter.
Assimiler, s'adapter et dépasser
Heureusement pour lui, Microsoft possède la propriété intellectuelle nécessaire pour créer un service cloud convaincant, souligne encore PC World. Il dispose aussi d'une base de clients et du crédit des entreprises pour commercialiser avec succès ses services Azure et gagner une part importante du marché du cloud. Avec l'annonce des serveurs spécialisés Windows Azure Platform (lors de la Worldwide Partner Conference de juillet dernier) qui permettent de créer des clouds privés, Microsoft propose également une passerelle entre le modèle traditionnel client-serveur et la plateforme cloud Azure. Libéré de la plainte de Salesforce.com concernant les brevets, sans pour autant négliger la compensation monétaire qui atterrira dans ses poches, Microsoft peut se consacrer à ce qu'elle fait le mieux : assimiler, s'adapter et surmonter.
Accusé de pratiques anticoncurrentielles, Intel accepte la proposition de la FTC
L'accord entre Intel et la Federal Trade Commission, agence américaine indépendante qui traque les pratiques anticoncurrentielles, a été annoncé le 4 août. Il interdit au fabricant californien de processeurs d'octroyer aux constructeurs d'ordinateurs des avantages liés à l'utilisation exclusive de ses puces. De même, il interdit au plus grand producteur de puces au niveau mondial, de pénaliser les fabricants quand ils font appel à d'autres fournisseurs. En outre, l'accord comprend la mise en place d'un fonds de 10 millions de dollars, à échelonner sur une période de deux ans, destiné à aider les éditeurs de logiciels à recompiler leurs produits en vue d'améliorer leurs performances avec des puces concurrentes. La FTC fait valoir en effet que les logiciels compilés sur un compilateur Intel s'exécutent plus lentement sur des processeurs d'autres fondeurs. « C'est une affaire extrêmement importante », a déclaré Jon Leibowitz, président de la FTC, qui indique que la Commission a été profondément troublée par les agissements d'Intel. Il précise que la FTC « a accepté cet accord car il va dans le sens de l'intérêt des consommateurs ».
L'interface PCI Express Bus en standard ouvert
En outre, la proposition impose à Intel de revoir ses accords de licence liés à la propriété intellectuelle avec les concurrents Advanced Micro Devices, Nvidia et Via Technologies. L'objectif est de leur donner plus de liberté pour envisager des fusions ou réaliser des co-entreprises avec d'autres acteurs, sans qu'ils soient menacés de poursuite pour violation de brevet. Intel doit également proposer à Via Technologies de prolonger de cinq ans l'accord de licence actuel sur le x86 qui arrive à expiration en 2013.
Par ailleurs, la FTC demande à Intel de laisser l'interface PCI Express Bus en standard ouvert d'une manière qui ne limite pas les performances des processeurs graphiques pendant les six prochaines années. Selon le président de la FTC, l'accord devrait « ouvrir la voie » à une nouvelle concurrence.
Consultation publique jusqu'au 7 septembre 2010
La Commission a accepté d'ouvrir le document de l'accord aux commentaires. Celui-ci prendra valeur définitive après une période de consultation publique de 30 jours. « Cet accord fournit un cadre qui va permettre à Intel de continuer à soutenir la concurrence et à fournir aux clients les meilleurs produits au meilleur prix », a indiqué le fondeur. « Il permet aussi de mettre un terme aux dépenses et aux perturbations liées au litige engagé par la FTC. »[[page]]
C'est en décembre 2009 que la Federal Trade Commission, une agence indépendante du gouvernement, dont la mission principale est de veiller à l'application du droit de la consommation et à contrôler les pratiques commerciales anticoncurrentielles, avait déposé plainte contre Intel, accusant la compagnie d'abuser de sa position dominante sur le marché des processeurs et d'avoir mené une campagne soutenue, alternant menaces et récompenses, pour contraindre les fabricants d'ordinateurs comme IBM, Dell et Hewlett-Packard à utiliser moins de composants d'AMD et de Via Technologies. Selon la FTC, il s'agissait pour Intel de « freiner la concurrence de produits de meilleure qualité » menaçant son monopole. La plainte mentionne notamment les processeurs AMD Opteron pour serveurs, sortis en 2003. Selon la FTC, ces actions, entreprises par Intel au cours des dix dernières années, ont favorisé une augmentation des prix et une réduction des choix pour les consommateurs.
La FTC avait déjà déposé une plainte en 1998
C'est la deuxième fois que la FTC instruit une plainte antitrust contre Intel. Déjà en 1998, l'agence avait accusé le fabricant de puces de profiter de sa position dominante pour forcer d'autres fournisseurs à soutenir Intel dans des litiges liés à la propriété intellectuelle et obtenir des conditions favorables. Intel avait mis fin au litige en 1999, un jour avant la tenue du procès.
La dernière action de la FTC contre Intel est intervenue quant à elle un mois après que le fondeur a accepté de verser 1,25 milliard de dollars à AMD pour suspendre les plaintes antitrust intentées par ce dernier. Le fabricant de puces concurrent se plaignait de tactiques semblables à celles qui figurent dans la plainte de la FTC, à savoir qu'Intel fournissait des remises aux fabricants de PC qui acceptaient de renoncer à utiliser des puces concurrentes. Dans l'accord avec la FTC, Intel n'a pas reconnu de fautes, mais en mai dernier, la Commission européenne a jugé Intel coupable d'avoir abusé de sa position dominante pour fermer le marché à des concurrents de plus petite taille, lui infligeant une amende de plus de 1 milliard d'euros (1,45 milliard de dollars), la plus lourde décidée par la Commission dans toute son histoire. Intel a fait appel de cette décision.
Des pratiques qui affectent aussi le marché des GPU
Si la plupart des affaires précédentes ne concernaient que les processeurs, la FTC dit avoir été cette fois troublée par les agissements d'Intel sur le marché des cartes graphiques et note dans sa plainte que des entreprises comme Nvidia et la division ATI d'AMD développent des processeurs graphiques en leur conférant des capacités équivalentes aux processeurs, mettant à mal la position dominante d'Intel. La FTC accuse Intel de méthodes illégales visant à entraver le développement des puces graphiques de ses rivaux, y compris en leur interdisant l'interopérabilité avec ses propres processeurs, ou encore en vendant de façon groupée ses processeurs et ses puces graphiques (GPU) au-dessous du prix. Depuis l'an dernier, Intel et Nvidia sont en procès sur la question de l'interopérabilité. L'affaire devrait passer en justice en septembre.
« Depuis dix ans, Intel concentre 75 à 85 % du marché des processeurs desktop et serveur, indique la FTC, ce qui lui donne un pouvoir de monopole ». Des chiffres publiés par IDC indiquent que les parts d'Intel sur le marché du processeur se sont élevées à 81% au premier trimestre 2010, contre 18,8 % pour AMD et 0,2% pour Via Technologies. « Quant à la part d'Intel sur le marché des puces graphiques, elle s'élève à plus de 50 % », indique la FTC.
VDI : Citrix reprend l'avantage sur VMware estime le Burton Group
La technologie VDI (virtual desktop infrastructure) de Citrix aurait dépassé celle de son rival VMware. Le cabinet d'analyse Burton Group (racheté en janvier 2010 par Gartner) estime en effet que la version du logiciel XenDesktop livrée cette semaine par Citrix est la première solution de virtualisation du poste de travail 'server-hosted' « prête pour l'entreprise ». L'offre est la première à répondre à l'ensemble des 52 caractéristiques établies par Burton Group pour mériter ce titre. Jusqu'ici, les contrôles d'accès basés sur des rôles (pour déléguer les tâches administratives) et le suivi des modifications de logging (deux fonctionnalités indispensables pour tracer les actions d'administration), faisaient défaut à XenDesktop.
La version initiale de XenDesktop 4 souffrait également d'une politique de support inappropriée pour prétendre à un niveau de classe entreprise. Selon l'analyste Chris Wolf (photo ci-dessus), de Gartner, le SP 1 de XenDesktop 4 répond à tous les pré-requis fixés par le Burton Group. « Toutes les fonctionnalités ont été largement testées dans notre laboratoire pour s'assurer qu'elles répondaient à nos exigences. Les résultats obtenus nous permettent de recommander cette plate-forme pour les environnements d'entreprises de grande taille », écrit-il dans un billet de blog.[[page]]
Pour l'instant, VMware View 4.01 rassemble plus de 90% des fonctionnalités requises par le Groupe Burton, mais il lui manque toujours, notamment, le contrôle d'accès à base de rôles et le support « invité » pour Windows 7. Burton pense que la version VMware View 4.5 attendue courant 2010 répondra à toutes les exigences.
A contrario, même s'il est conforme à toutes les fonctionnalités requises par le Burton Group, Citrix n'atteint que 76% des caractéristiques « préférées » et environ 50% des « optionnelles ». Citrix a encore des progrès à faire pour améliorer la complexité des fonctions de gestion, notamment en réduisant le nombre de consoles nécessaires pour gérer les déploiements de XenDesktop. VMware a pour sa part encore plus de chemin à faire : il ne satisfait qu'à un peu plus de 40% des caractéristiques « préférées » du Burton Group, et dispose seulement de 20% des caractéristiques « optionnelles ».
La technologie VDI n'a pas encore pris son envol
Enfin, comparée à Citrix, la lenteur de VMware ne sera pas nécessairement un gros handicap estime le groupe, dans la mesure où les deux entreprises ont déjà capté une part importante de clients parmi les tout premiers adeptes de la virtualisation du poste de travail. De nouvelles données publiées par IDC montrent que la technologie VDI n'a pas encore réellement pris son envol. Autant dire que la course à la plate-forme de virtualisation du poste de travail est encore ouverte.
Citrix s'est également hissé au-dessus de VMware sur le marché des hyperviseurs desktop Bare-Metal, favorisé en partie par le fait que VMware n'a pas sorti un produit initialement prévu l'an dernier. Alors que ce dernier lutte sur le front de l'hyperviseur client, il risque de devoir aussi rattraper Citrix sur le marché des serveurs hébergés offrant des capacités desktop. Petit avantage, VMware arrive devant Citrix dans le classement, également établi par Burton, qui mesure la capacité des hyperviseurs à répondre aux besoins des entreprises.
Ne confondez pas SOA et Cloud explique le Gartner
Selon David Mitchell Smith, vice-président de Gartner Research, les entreprises proposant une architecture orientée services (SOA) pour aider à la gestion des services informatiques ne devraient pas imaginer qu'elles seront automatiquement prêtes pour le cloud computing. S'exprimant sur le thème « Quelle réalité pour le cloud ; les SOA, constitutions et logiciels du futur » lors du sommet annuel que Gartner consacre au SOA, celui-ci a expliqué que le problème venait du terme «service» utilisé à la fois pour le cloud et pour le SOA. "Un même mot avec des significations différentes," selon lui. "Dans le monde du SOA nous parlons de services en faisant référence aux logiciels, aux composants actifs et aux objets (éléments techniques), mais dans le monde réel, quand on parle de service, on pense résultats», a-t-il déclaré.
Payer pour des résultats ou pour une technologie ?
Celui-ci a poursuivi son intervention en déclarant : « Les gens vont dire : nous faisons du SOA donc nous sommes prêts pour le cloud. Mais la différence est énorme. Avec le cloud, vous payez pour des résultats, pas pour la technologie. Dans le cloud, l'offre relève de la relation entre le fournisseur de service et le consommateur, et pas entre le prestataire de technologique et le consommateur. « Il a insisté sur le fait que les DSI ne devaient pas imaginer que SOA et cloud étaient équivalents». Cependant, le vice-président de Gartner a reconnu que les deux concepts étaient liés : «le fait de disposer du SOA représente une bonne base pour le cloud». Pour mieux illustrer l'orientation que devait prendre selon lui l'industrie du logiciel, il a déclaré : « Dans le football américain, il faut lancer la balle d'un côté et la rattraper de l'autre. Il est donc important d'être là où l'on pense que la balle va atterrir,» a-t-il dit. «Les questions qui se posent aujourd'hui autour du cloud et du SOA relèvent de la même logique. Si l'on prévoit en fonction des hypothèses actuelles et que l'on veut planifier l'avenir, alors on a besoin de savoir ce que l'avenir sera, et ce n'est pas une mince affaire."
Bien définir le cloud pour mieux l'utiliser
Dans son discours tenu à Sidney, David M. Smith a estimé que l'industrie IT était très conditionnée par la mode. « Nous voulons savoir où nous allons et nous sommes en haut d'une falaise qui s'appelle le cloud. Tout le monde dit vouloir y aller, sans comprendre nécessairement ce que cela signifie,» a-t-il déclaré. «Le cloud computing est sans doute le terme actuel le plus surfait, et il n'est pas bien défini. La moitié du problème consiste déjà à expliquer ce que c'est, et ce n'est ni une technologie ni une architecture, mais une application de l'informatique qui permet par exemple d'offrir à ses clients des services utilisant les technologies de l'Internet. » Selon lui, les gens pourraient penser que le terme cloud computing dit la même chose autrement, mais "c'est plus que cela ». «Le cloud est une question de confiance et si vous n'avez pas confiance dans votre prestataire, mieux vaut ne pas se lancer. À ce titre, le SOA est aussi différent du cloud,» a-t-il ajouté. « La combinaison du cloud, du SOA et d'événements appelant à la participation des individus conduit à des innovations. C'est le cas des tâches collaboratives, des échanges basés sur des événements et des services multi-tenant mais les individus restent au coeur de cette innovation. »
Pourquoi aller vers le SaaS ?
Le vice-président de Gartner a également posé la question des pratiques logicielles et s'est interrogé sur leur pertinence pour l'entreprise. Il a notamment estimé qu'il fallait faire évoluer les mentalités pour transformer l'achat de logiciel en achat de service. « Les gens ne veulent pas vraiment acheter du logiciel. Ils veulent acheter un service qui permet d'obtenir quelque chose, » a-t-il commenté. « Le cloud et les réalités auxquelles doivent faire face les entreprises sont axés davantage sur les résultats, et les investissements doivent représenter de la valeur, et non des coûts. L'avenir du logiciel est loin d'être assuré. Celui-ci n'est pas mort, mais on peut dire qu'il n'est pas en bonne forme. Pas suffisamment en tout cas pour servir de business model à long terme. Ce sont les résultats qui comptent, pas la technologie. »
Illustration : David Mitchell Smith, vice-président de Gartner Research, crédit D.R.
Dell et HP renouent avec Solaris (MAJ)
Cette annonce témoigne de « l'engagement d'Oracle à l'ouverture » souligne un communiqué de l'éditeur. Ce dernier vient de signer un partenariat avec plusieurs fournisseurs d'équipements pour intégrer Solaris, OpenSolaris et Oracle VM sur leurs serveurs x86. Les clients pourront donc avoir accès au support Premium d'Oracle et bénéficier aussi des mises à jour. A noter qu'IBM devrait arrêter la fourniture de solutions Solaris sur ses serveurs x86 System X, exNetfinity.
Cet accord de distribution montre également la reprise en main du géant des bases de données sur l'activité de Sun. Après un petit moment de flottement où les communautés de développeurs se sont interrogées sur une éventuelle dissolution du conseil d'administration du système d'exploitation OpenSolaris (lien).
< Les 10 documents précédents | Les 10 documents suivants > |