Flux RSS
Infrastructure serveur

2924 documents trouvés, affichage des résultats 2051 à 2060.
< Les 10 documents précédents | Les 10 documents suivants > |
(21/09/2007 15:28:27)
IDF : Avec le prochain Centrino, Intel pourrait démocratiser le Wimax
Alors que les opérateurs semblent bouder la technologie, Intel, à l'occasion de son grand raout réservé au développeurs, l'IDF, a décidé de miser sur le Wimax pour parfaire sa stratégie concernant la mobilité. Et pas uniquement sur les ordinateurs portables. En intégrant en natif, après moult hésitations, la norme à ses plateformes, Intel se montre un allié de poids pour le Wimax. Cela pourrait bien lui donner l'impulsion nécessaire à son décollage. Un peu à l'image du WiFi et des premiers Centrino. Intel a en effet promis d'intégrer à la prochaine génération de Centrino (prévue pour 2008) la norme 802.16, en plus de la 3G. Elle devrait par ailleurs être supportée sur les prochains UMPC (PC ultra-mobiles) Windows et Linux de la marque. Le Wimax est un standard de réseau sans fil qui offre notamment une portée bien plus importante que celle du WiFi. En France, certaines collectivités locales ont adopté la technologie pour alimenter en Internet les zones blanches, comme l'Aveyron ou le Loiret. Reste que, pour l'heure, les offres Wimax sont encore rares, les opérateurs misant pour l'heure sur la 3G, plus lucrative. (...)
(19/09/2007 14:23:13)IDF : Le Quad-Core Opteron d'AMD rattrapé par un Intel Xeon dès novembre
On n'arrête plus Intel. Son train d'annonces de l'Intel Developer Forum 2007 donne à voir une entreprise très agressive. Aiguillonné par AMD, le fondeur paraît ne plus vouloir s'arrêter. Dès le 12 novembre, il promet son premier Xeon réellement quadri-coeurs. Gravé en 45 nm, cet Hapertown, premier Xeon de la génération Penryn, devrait être aussi performant que le Quad-Core Opteron qu'AMD commence à peine à commercialiser. Hapertown embarque 820 millions de transistors et 12 Mo de cache contre 582 millions de transistors et 8 Mo de cache pour le Clovertown, l'actuel Xeon haut de gamme. Intel affirme que son Hapertown, cadencé à 3,2 GHz et doté d'un bus frontal à 1,6 Ghz, est plus performant qu'un Quad-Core Opteron à 2,5 GHz (sa fréquence d'horloge maximale à ce jour). Intel ne compte pas s'arrêter en si bon chemin. En 2009, la génération Nehalem succèdera à la Penryn. Nehalem sera la première architecture Intel à intégrer dans le processeur un contrôleur mémoire et QuickPath, l'équivalent d'Hypertransport qu'AMD intègre à ses puces depuis longtemps. C'est en fin d'année 2009 qu'Intel prévoit aussi de commencer à produire en masse des composants en 32 nm. Ce pas de masque, qui permet de produire des composants mémoire avec 1,9 milliard de transistors, servira à produire la génération de processeurs Westmere qui succèdera à Nehalem. (...)
(19/09/2007 14:17:43)IDF : Intel promet des SSD pour serveurs en 2008
A l'occasion de son grand raout annuel IDF, Intel a indiqué qu'il débuterait la fabrication de disques durs Flash (SSD - Solid State Disk) pour serveurs dès 2008. Le constructeur entend amorcer sa gamme par un modèle à 32 Go à base de memoire NAND, puis devrait sortir des 64 Go et 128 Go rapidement, sans toutefois mentionner de calendrier ni de feuille de route. Les disques durs de type SSD sont réputés plus rapides pour la manipulation de données - écriture et lecture - et consomment moins d'énergie que les disques durs magnétiques traditionnels. Leur taille réduite offre également un gain en termes de poids. Reste que leur cout est plus élevé, au regard d'une capacité bien moindre que les disques durs magnétiques. Un point déterminant sur le marché des serveurs. Le marché des SSD se compose pour l'heure d'offres sur le segment des ordinateurs grand public essentiellement, notamment les portables. Samsung, Mtron, Sandisk et bientôt Seagate sont les premiers constructeurs à s'y être positionnés. Selon le cabinet d'étude iSupply, les SSD devraient peu à peu détrôner les disques durs magnétiques. D'après ses prévisions, 12% des ordinateurs portables commercialisés en 2009 seront équipés de cette technologie (...)
(19/09/2007 09:05:54)IDF : Ouverture du show d'Intel dans un contexte très concurrentiel
Intel a inauguré hier mardi 18 septembre sa conférence Intel Developer Forum (IDF), un show très attendu qui doit donner les grands axes et orientations, tant technologiques que stratégiques, du n°1 des fondeurs. L'IDF de San Francisco arrive à point nommé pour Intel qui doit continuellement innover pour les attaques de son archi-rival AMD, sur les marchés du PC grand public mais également des serveurs. Hier Lundi 17 septembre, pour marquer de sa pierre l'ouverture de la conférence de son rival, AMD annonçait un processeur triple coeur, d'abord pour les PC grand public, mais une déclinaison devrait bientôt être distribuée pour les serveurs. Sont attendues pour cette édition, des annonces liées à la gravure de plus en plus fine des processeurs de la marque, aux disques durs Flash, aux technologies écolo. En ligne de mire, la présentation aux développeurs de la feuille de route du constructeurs. La rédaction du Lemondeinformatique.fr vous tiendra au courant des annonces au cours de la journée. (...)
(18/09/2007 11:57:59)L'EPA vise les serveurs d'entrée de gamme
Pour réaliser des économies, autant dégraisser le gros des troupes. C'est la philosophie de l'EPA (agence américaine pour la protection de l'environnement). Elle vient en effet de décider que les premiers serveurs à adopter les standards d'économie d'énergie Energy Star seront les serveurs dit de « commodité » qui effectuent les tâches les plus routinières d'une salle de serveur. Selon Andrew Fanara, directeur de l'équipe développant les spécifications Energy Star, ces serveurs « sont probablement les moins efficaces en terme de consommation électrique, et sont les plus simples à convertir ou à remplacer par rapport à d'autres serveurs. » L'EPA a demandé le mois dernier au Congrès américain des allégements fiscaux pour les entreprises adoptant des serveurs basse consommation. Mais aucun serveur labellisé « Energy Star » n'est apparu sur le marché, même si la réduction de la consommation énergétique est devenue un argument marketing incontournable chez les fabricants. (...)
(18/09/2007 11:20:37)AMD lance le triple coeur dans le jardin d'Intel
Alors qu'il vient de lancer ses processeurs quadri-coeurs, le fondeur AMD a annoncé pour le début de l'année 2008, des processeurs triple coeur. Destinés en priorité à cette frange du grand public qui aime bricoler ses PC pour obtenir plus de puissance, ces processeurs seront basés sur la plateforme Phenom attendue pour la fin de l'année. Il s'agirait en fait de processeurs quadri-coeurs dont l'un des coeurs a été débranché. Il sera ainsi possible d'obtenir de plus hautes fréquences sans produire trop de chaleur. Et dans le domaine du grand public, où les derniers jeux vidéo et d'autres logiciels commencent à peine à tirer parti des processeurs bi-coeurs, avoir une puce tri-coeurs permettra de faire tourner l'application principale sur deux coeurs et le système d'exploitation et les logiciels de second plan (comme le pare-feu ou l'antivirus) sur le troisième. Au-delà du grand public, AMD ne se refuse pas la possibilité de sortir une version pour serveurs de ce triple coeur. D'autant plus que jusqu'à la sortie de sa plateforme Nehalem en septembre 2008, Intel aura du mal à proposer un produit équivalent. Ses processeurs quadri-coeurs Tigerton n'étant pour l'instant que des processeurs « bi-coeurs » accolés deux à deux. Multiplication des vulnérabilités C'est également un bon compromis pour convaincre les acheteurs se sentant à l'étroit avec des processeurs bi-coeurs et réticents à l'idée d'acheter un serveur quadri-coeurs, alors que peu d'applications ne tirent encore pleinement partie de toute cette puissance. D'autant plus que cette multiplication des coeurs entraîne de nouvelles vulnérabilités. Robert Watson, spécialiste de la sécurité informatique à l'université de Cambridge, a ainsi montré que certains virus pourraient profiter de la connexion entre les différents coeurs du processeur pour se glisser et modifier des instructions au plus près du matériel. Cette technique consiste à profiter du court laps de temps pendant lequel les coeurs s'échangent des informations pour court-circuiter les protections d'accès intégrées au noyau et accéder à des fichiers réservés. Il suffit de moins de 20 lignes en langage C pour y arriver, et Robert Watson incite fortement les développeurs à repenser leurs programmes en conséquence. (...)
(17/09/2007 16:04:41)La virtualisation se heurte à la dure réalité du stockage
Aujourd'hui, la virtualisation des serveurs s'arrête au niveau des entrées/sorties réseau. Demain, VMWare promet de supporter n-Port I/O virtualization, alias NPIV. Mais NPIV ne sera pas supporté par VMWare avant la prochaine version de Virtual Infrastructure. D'ici là, toutes les machines virtuelles installées sur un même serveur physique doivent partager la même adresse et le même HBA (Host Bus Adaptor). Emulex clame le plus fort qu'il supporte déjà NPIV, mais Q-Logic, son habituel concurrent, n'est pas en reste. De plus, il existe d'ores et déjà une alternative aux futurs produits d'Emulex et Q-Logic qui ont la douloureuse habitude de pratiquer des tarifs prohibitifs. Chez Xsigo et 3 Leaf Systems, on trouve des boîtiers, comparables à des commutateurs, qui prennent en charge la virtualisation du stockage. Ce sont ces boîtiers qui se chargent de la virtualisation des éléments de stockage. Ils assurent le mappage entre les serveurs et les différents équipements de stockage. (...)
(13/09/2007 17:32:18)Virtualisation rime aussi avec complexification
Si la virtualisation recèle d'importants gisements d'amélioration de l'utilisation des ressources système, elle promet aussi d'être la source d'un net accroissement des difficultés à gérer les centres systèmes. Elle cristallise même autour de son nom le manque d'outils d'administration des centres systèmes. C'est le message principal recueilli par le cabinet Lighthouse pour le compte de Novell auprès de 441 centres systèmes d'entreprises américaines de plus de 500 salariés dont le chiffre d'affaires va de 10 M$ à plus de 100 M$ (26% dans ce cas). Pour l'ensemble de la population sondée, la virtualisation déboule en force. 45% des data centers ont déjà un pied dedans et plus de la moitié de ceux qui n'ont pas encore sauté le pas déclarent qu'ils ne vont pas tarder à le faire. Pour 65% des sondés, la virtualisation vise à optimiser la consommation électrique et l'espace qu'occupent leurs serveurs. Cette technologie rime donc avec des préoccupations de l'ordre du développement durable. Le hic, c'est que ces projets de virtualisation s'inscrivent dans un paysage technique où les logiciels d'administration font cruellement défaut. 61% des responsables interrogés déclarent qu'ils ne suivent pas l'utilisation des ressources systèmes ou qu'ils le font manuellement. Du coup, 79% sont impuissants à suivre l'évolution de la charge des systèmes ou s'essayent à la répartir manuellement. D'ailleurs, 25% des responsables de centres de calcul où sont déjà installées des solutions de virtualisation ne sont pas satisfaits de leur efficacité. Au cours des deux ans à venir, près des deux tiers des sites (72%) interrogés prévoient d'implanter des outils pour l'automatisation du déploiement de mises à jour et des rustines. 75% prévoient aussi d'installer des outils de monitoring de leurs serveurs capables d'en assurer les réglages automatiquement. (...)
(13/09/2007 12:08:13)Le côté économique de l'IT verte séduit
« L'IT verte fera partie de votre prochaine salle de serveur », estime Jed Scaramella, analyste chez IDC. Ne serait-ce que pour une raison : les économies d'énergie qu'elle entraîne. Selon IDC, il y a dix ans l'alimentation électrique et la climatisation représentaient 17 % du coût d'un serveur. Aujourd'hui, elles représentent 48 % et, si rien n'est fait, elles atteindront rapidement 78 %. Cette état des lieux a poussé 90 % des participants à la conférence Infrastructure Management World (IMW) à considérer l'IT verte comme une réalité incontournable. Certaines, comme la société financier Fanny Mae, s'y sont mis très tôt. Cette société a construit en 2005 une salle de serveur écologique avec recyclage d'eau, filtrage d'air et un parking pour vélo et véhicule électrique. Pour Brian Cobb, directeur informatique de Fanny Mae, l'investissement de départ était équivalent à celui d'une salle de serveur traditionnelle : « Désormais, je considérerais toujours la composante verte. Cela ne signifie pas que ce sera notre critère de choix principal, mais elle fera partie de la décision finale. » (...)
< Les 10 documents précédents | Les 10 documents suivants > |