Flux RSS
Infrastructure serveur
2924 documents trouvés, affichage des résultats 2141 à 2150.
| < Les 10 documents précédents | Les 10 documents suivants > |
(05/06/2007 17:25:00)
Des chercheurs américains inventent une nano-glue pour coller les processeurs
Quel rapport y a-t-il entre le super-héros Spiderman capable de projeter de la toile résistante pour se balancer d'un immeuble à l'autre et les processeurs pour serveurs ? Pour les chercheurs de la Rennsselaer Polytechnic Institute, les deux pourront bénéficier de leur nouvelle glue. Cette colle est capable d'assembler toutes sortes de surfaces. Elle est composée de molécules individuelles s'auto-assemblant disposant d'un coeur de carbone et d'une queue en forme de crochet à base de silicone et souffre. Et plus la température augmente (jusqu'à 700°), plus les liens créés par la glue sont résistants. Pour Gnanapathiraman Ramanath, à la tête de l'équipe de recherche, cette colle peut avoir plusieurs usages, offrant suffisamment de résistance pour être utilisée comme la toile d'araignée de Spiderman. Il suffit de « trouver une façon de créer des fils, tout en conservant les propriétés adhésives, puis de créer des lanceurs de toiles similaires à ceux de Spiderman. » En attendant que des bricoleurs prennent cette orientation, l'intérêt premier de cette colle se trouve dans l'électronique. En effet, la colle pourrait remplacer l'adhésif actuellement utilisé pour faire adhérer le cuivre aux processeurs. Plus fine, un nanomètre d'épaisseur contre 10 à 15 nanomètres actuellement, elle est également plus économique. Selon Gnanapathiraman Ramanath, la production de 100 grammes de glue ne couterait que 35 $. Celui-ci s'apprête à déposer un brevet avec son équipe avant de commercialiser cette variante de nano-glue et d'explorer de nouvelles possibilités en changeant la taille des molécules. (...)
(04/06/2007 16:05:14)Droit de réponse de Microsoft France
Bernard Ourghanlian, responsable technologies et sécurité de Microsoft France, nous a écrit à la suite de la publication de l'article Windows incapable d'exploiter les derniers processeurs. Nous publions ci-dessous, en italiques, son courrier, ainsi que notre réponse. Selon l'article publié par le Monde Informatique il semblerait que Windows serait incapable d'exploiter les derniers processeurs et serait, en particulier, incapable de gérer plus de 16 threads. Fort heureusement, il n'en est rien, ainsi que le démontre un examen rapide de l'affichage du gestionnaire de tâche sur un simple PC portable qui permet de visualiser 67 threads rien que pour le processus OUTLOOK.EXE, 37 pour explorer.exe, etc. Autrement dit, Windows Vista - ainsi que d'ailleurs toutes les versions successives de Windows NT depuis sa version initiale - est un système d'exploitation qui est parfaitement capable de gérer un nombre extrêmement important de threads. En fait, il n'y a pas de d'autre limite au nombre de threads qu'il est possible de créer sur un système Windows que la quantité de mémoire adressable par un processus utilisateur. Ce que veut dire M. Ty Carlson dont le nom est cité dans cet article, c'est qu'avec l'avènement et la généralisation des processeurs multi-coeurs, la plupart des applications qui tournent aujourd'hui sur un PC n'ayant pas été conçues à l'origine pour s'exécuter dans un environnement multiprocesseur, celles-ci ne pourront pas nécessairement profiter de l'ensemble des coeurs disponibles pour s'exécuter plus rapidement car elles n'ont pas été pensées pour s'exécuter en parallèle. Autrement dit, dans la mesure où les processeurs sont en train de devenir massivement multi-coeurs, il va falloir faire évoluer les techniques de programmation pour en tirer parti mais cela n'a absolument rien à voir avec le fait que Windows ne puisse pas tirer parti de 4 processeurs ou utiliser plus de 16 threads. Dernière remarque : l'article fait également référence au fait « qu'en configuration standard, XP est toujours limité à n'exploiter que 128 Ko de la mémoire cache des processeurs Intel » ; fort heureusement, ce n'est pas Windows XP (ni un quelconque système d'exploitation d'ailleurs, qu'il soit d'origine Microsoft ou non) qui gère la mémoire cache des processeurs Intel mais bien les processeurs eux-mêmes. Pour rappel, un cache est le nom donné au premier niveau de hiérarchie mémoire que l'on rencontre lorsque les adresses quittent le CPU. Quand le CPU trouve l'élément demandé dans le case, on a ce que l'on appelle un succès cache. Quand il ne le trouve pas, on parle alors de défaut de cache (ou échec cache). Un ensemble de données de taille fixe, appelé bloc, contenant le mot demandé est obtenu à partie de la mémoire principale et placé par le cache. Le principe dit de localité temporelle nous dit qu'il y a des chances que l'on ait besoin à nouveau de ce mot dans un futur proche : il est donc utile de le placer dans le cache où il peut être obtenu rapidement. A cause du principe dit de localité spatiale, il y a aussi une grande probabilité que les autres données du bloc soient bientôt nécessaire. Le temps d'acquisition lors d'un défaut de cache dépend à la fois de la latence et de la bande passante mémoire : la latence détermine le temps pour récupérer le premier mot du bloc et la bande passante détermine le temps pour récupérer le reste de ce bloc. Un échec cache est traité par matériel et oblige les processeurs avec une exécution dans l'ordre à s'arrêter (suspension) jusqu'à ce que la donnée soit disponible. [[page]] Dans tous les cas, ces dispositifs de cache, qu'ils soient de niveau 1, 2 ou 3, unifiés ou séparés, données ou instructions, associatifs ou directs, etc. sont gérés directement par le matériel (certaines architectures RISC comme l'architecture Alpha permettaient de pré-charger grâce à une instruction machine particulière un cache à partir de données contenues en mémoire mais, même dans ce cas-là, c'était bien au processeur de gérer les remplissages et les extractions depuis le cache sur instruction du programmeur - de telles fonctionnalités n'existent pas sur un processeur x86). En résumé, Windows XP comme n'importe quel autre système d'exploitation est donc parfaitement capable d'exploiter plus de 128 Ko de mémoire cache sur les processeurs Intel (x86, x64 ou Itanium) pour la bonne et simple raison qu'il n'est pas vraiment concerné par la taille de ce cache. Notre réponse, point par point : OS multitâche et processeur multi-threads Dans son droit de réponse (bien plus long que l'article originel...), Microsoft France conteste le fait que Windows soit "incapable de gérer plus de 16 threads". Nous invitons l'auteur de ces lignes à se rapprocher de Ty Carlson, « director of technical strategy » chez Microsoft US afin qu'ils accordent leurs violons. Le 23 mai dernier, Ty Carlson a déclaré que Windows Vista "est conçu pour tourner sur un, deux, trois, voire quatre processeurs" (faisant allusion aux coeurs des processeurs multi-coeurs) avant de préciser que Vista avait été conçu pour tirer profit des threads des processeurs, "mais pas jusqu'à 16". Une citation de Ty Carlson se trouve sur le blog de Tom Krazit. Soyons certains que Ty Carlson embellit plus la réalité des produits Microsoft qu'il ne minore leurs mérites. Nous confirmons donc notre propos et nous étonnons que Microsoft France mélange allègrement les threads propres à Windows - qui existent depuis que cet OS est multitâche - et ceux des processeurs. Dans le premier cas, il s'agit de découpages des processus (les threads se succédant dans le processeur), dans le second, des files d'exécution que les processeurs peuvent gérer. La limitation de la mémoire cache Cette limitation à 128 Ko de mémoire cache est inscrite dans la base de registre de Windows XP, à l'adresse suivante : [HKEY_LOCAL_MACHINE\System\CurrentControlSet\Control\Session Manager\Memory Management] "SecondLevelDataCache". Mais, effectivement, cette variable fait partie du tribut que Windows paye à la compatibilité ascendante. Elle ne concerne que les processeurs d'ancienne génération. Outlook 2007 et ses 67 threads Contrairement à l'auteur qui se rengorge des 67 "threads" d'Outlook 2007 - soit le record des threads pour les logiciels actifs sur sa machine - nous serions plutôt enclin à considérer cela comme la confirmation d'un problème de conception d'Outlook. Problème qui conduit les utilisateurs de ce logiciel à se plaindre de son extrême lenteur, soulignait en avril dernier notre confrère Computerworld UK. (...)
(04/06/2007 15:16:44)Flextronics acquiert Solectron
Flextronics, le géant de la sous-traitance informatique, électronique et télécoms (Electronics Manufacturing Services) met la main sur son concurrent Solectron. Les deux sociétés sont parvenues à un accord sur une OPA/OPE de 3,6 Md$. Flextronics réalise un chiffre d'affaires de 18,9 Md$ (2007). Le Singapourien assure la conception, la fabrication et la livraison de bon nombre de produits électroniques dans les domaines de l'automobile, de l'informatique, de l'électronique grand public, du médical et des télécoms (mobiles) à travers une trentaine de pays sur quatre continents. Solectron, quant à lui, fournit des services de bout en bout de la conception au service après-vente, en passant par le lancement de produits. Le Californien est présent dans une vingtaine de pays et réalise un chiffre d'affaires de 10,6 Md$ (2006). La fusion des deux sociétés va ainsi donner naissance au plus grand sous-traitant mondial. Le groupe opérera à travers 35 pays, comptera plus de 200 000 employés, incluant environ 4 000 ingénieurs dans la conception et dégageant un chiffre d'affaires de plus de 30 Md$. Il sera capable de proposer une large palette de solutions produits (design, fabrication, livraison, SAV). La fusion pourrait permettre de réaliser plus de 200 M$ d'économies. « Solectron est une acquisition extrêmement importante pour Flextronics. Cette fusion transforme le paysage de notre industrie », a déclaré Mike Mc Namara, PDG de Flextronics. Plus gros, plus grand, plus fort. (...)
(31/05/2007 17:15:48)La croissance de Windows Server plus rapide que celle de Linux
Au dernier trimestre, alors que les ventes de serveurs sous Unix stagnaient en valeur (+0,5%), celles sous Windows (+10,4% à 4,8 Md$) augmentaient plus vite que celles sous Linux (+10%)- source IDC. Même si l'écart est infime, il stigmatise le premier renversement de tendance depuis 1998. Aujourd'hui, Windows Server s'accapare plus de 35% d'un marché des serveurs qui pèse 55 Md$. Le parcours réalisé depuis 1996, lorsque Windows NT pesait moins de 20% d'un marché bien plus petit, est conséquent. Si l'on ajoute à la réussite de Windows Server celle de Linux, dont l'écrasante majorité des installations se font sur des machines X86, l'autre grand vainqueur est bien cette architecture machine qui pousse les autres processeurs à la marginalisation. Parmi eux - ironie de l'histoire- l'Itanium d'Intel est le plus mal placé... Autour de Windows Server, Microsoft a déployé toute une palette d'outils (SGBD, middleware, outils de développement) sur le succès desquels l'éditeur bâtit aujourd'hui son offensive dans le domaine des PGI et du GRC. A se demander si Microsoft, dont l'offre client (Vista + Office 2007) est confrontée à une résistance inhabituelle, ne va devoir son second souffle à son offre pour l'infrastructure et les applicatifs d'entreprise. (...)
(29/05/2007 17:39:07)Le projet Blackbox de Sun prêt à prendre la route
Un an et demi après l'avoir annoncé, Sun Microsystems dévoile enfin officiellement son projet Blackbox. Son but : faire tenir l'ensemble d'une salle de serveurs - serveurs mais aussi baies de stockages et infrastructure réseau dans un conteneur de transport standard de 6 m x 2,5 m (soit 15 m2). L'ensemble étant totalement autonome et prêt à l'emploi dès la livraison, il suffit d'une prise électrique et d'une arrivée d'eau (pour la climatisation du conteneur) pour le faire fonctionner. A l'intérieur, Sun peut installer jusqu'à 8 racks de 19 pouces (7 réellement utilisables pour les serveurs, le huitième servant pour les connexions réseau et le contrôle de la Blackbox). A la convenance de ses utilisateurs, Sun peut livrer en quinze jours un conteneur équipé des serveurs de sa marque ou de produits en provenance de la concurrence à condition qu'ils soient d'une taille adéquate pour se loger dans la "boîte". Ce qui exclut, de fait, la plupart des mainframes. Déployable dix fois plus vite qu'une salle de serveurs classique, le projet Blackbox vise en premier lieu les clients ayant des besoins temporaires en stockage ou en puissance de calcul (pour couvrir un événement récurrent ou pour la réalisation d'un projet particulier), les clients devant travailler en environnements extrêmes (comme dans l'industrie pétrolière) ou encore plus simplement ceux qui veulent ajuster leurs capacités informatiques sans construire une nouvelle salle de serveur dans l'immédiat. A plein régime, la Blackbox peut contenir jusqu'à 500 processeurs effectuant 8000 tâches simultanées ou stocker jusqu'à 1,5 peta-octet de données. Cette mobilité a tout de même un prix puisque la boîte seule coûte environ 400 000 $ (les tarifs pour l'Europe n'ont pas encore fixé). Un configuration de base avec deux racks de serveurs pour un prestataire Web coûterait 1 M€, et pour un usage intensif, avec l'utilisation de bases de données transactionnelle, monterait jusqu'à 4 M€. Si la société a déjà commercialisé cinq prototypes aux Etats-Unis, le projet Blackbox ne sera disponible qu'à partir de l'été, en vente comme en location. Sun n'est pas le seul à vouloir rendre modulable les datacenters. Depuis janvier dernier, APC propose aux Etats-Unis et au Canada, un poids lourds contenant un datacenter d'appoint de 12 racks. L'Américain Nor-Tech vient, de son côté, de commercialiser pour les gros consommateurs de puissance de calcul, un cluster 15 U sur roues, qui peut s'ajouter ou s'enlever d'une salle de serveurs suivant les besoins et les contraintes énergétiques. (...)
(29/05/2007 17:25:39)Un accord de développement autour de la gravure à 32 nanomètres
Quel point commun y a-t-il entre IBM, Samsung, Freescale, Chartered technologies et Infineon ? Les cinq fondeurs viennent d'annoncer leur intention de développer en commun certains éléments de fabrication de leurs processeurs, notamment la gravure à 32 nanomètres. Cet accord sera valable au moins jusqu'en 2010 et pourra être renouvelé ultérieurement. Il portera sur la conception, le développement et la fabrication de telles puces pour des usages allant du téléphone mobile au mainframe. « Les développements pourraient conduire à des améliorations radicales dans l'imagerie médicale permettant des résultats plus rapides et plus précis des blessures et maladies cardiaques. Ou aider à concevoir un Internet en trois dimensions », explique Daniel Dias, directeur du laboratoire de recherche d'IBM en Inde. (...)
| < Les 10 documents précédents | Les 10 documents suivants > |