Flux RSS
R et D
956 documents trouvés, affichage des résultats 661 à 670.
| < Les 10 documents précédents | Les 10 documents suivants > |
(14/01/2008 14:56:49)
Les extensions humaines de BPEL ont leur comité à l'Oasis
Neuf mois après l'approbation de la version 2.0 du standard BPEL par l'Oasis, voilà que se profile à l'horizon l'extension pour les tâches humaines. BPEL, ou Business Process Execution Language, est un langage destiné à écrire les enchaînements de services formant des processus. Il n'a pas pour but de gérer des interactions avec les utilisateurs. En revanche, des travaux sur cet aspect de BPEL, appelés BPEL4People, existent depuis longtemps. Active Endpoints, Adobe, BEA, IBM, Oracle et SAP ont ainsi élaboré les spécifications WS-BPEL Extension for People et WS-HumanTask. Co-président du comité BPEL de l'Oasis (Organization for the Advancement of Structured Information Standards, qui gère un grand nombre de standards ouverts liés à XML et aux services Web) depuis sa création en 1993, John Evdemon, de Microsoft, vient d'annoncer que l'Oasis créait un sous-comité pour étudier ces spécifications, et permettre à terme d'inclure ces tâches humaines au sein des processus et de les exposer en tant que services Web. (...)
(11/01/2008 12:18:52)IBM recycle ses déchets pour l'industrie des panneaux solaires
IBM, afin de donner une deuxième vie à ses déchets, a mis au point une technologie permettant de recycler les plaquettes de silicium (wafers) sur lesquelles sont gravées ses processeurs pour les revendre aux constructeurs de panneaux solaires. Ce projet original en matière de recyclage, initié par l'usine d'Essex Junction (état du Vermont) et dirigé par l'ingénieur Eric White, vise à utiliser à nouveau les wafers usés par les multiples tests sur les chaînes de production de Big Blue. Après plusieurs utilisations où elles sont polies, les plaquettes deviennent trop fines pour la fabrication de processeurs, mais contiennent suffisamment de silicium pour la construction de panneaux solaires. Reste alors à neutraliser les wafers (ôter les circuits électriques) pour permettre leur nouveau recyclage. Pour répondre à cette problématique et au lieu d'user des produits chimiques polluants, IBM a décidé de mettre au point une méthode composé d'un simple matériau abrasif, d'eau et d'une technique de polissage qui efface les composants non souhaités, tout en préservant la surface en silicium. Auparavant, IBM effaçait les wafers en y projetant du sable sous pression, mais ce procédé endommageait les plaquettes. Cette technique a valu à IBM le prix 2007 du Most Valuable Pollution Prevention Award (Trophée de la méthode la plus efficace contre la pollution) décerné par le National Pollution Prevention Roundtable. (...)
(10/01/2008 18:17:01)Supercalculateur du CNRS : Bull n'a pas été consulté
Faisant suite à l'annonce, par le CNRS, du choix d'IBM pour la mise en place d'une plateforme de calcul intensif, le constructeur national Bull a tenu à préciser qu'il n'avait pas été consulté dans le cadre de ce marché, contrairement à ce que l'on avait pu comprendre lors de la conférence de presse du lundi 07 janvier dernier. « S'il s'était agi d'un appel d'offres ouvert, nous aurions étudié le cahier des charges afin d'établir quelle réponse nous pouvions y apporter », a expliqué Philippe Miltin, vice-président de Bull, responsable de la division produit. Le secteur du calcul intensif est un marché sur lequel nous remportons régulièrement des contrats lorsque nous nous trouvons dans des conditions de compétition normale, dans le cadre de procédures d'appels d'offres classiques.» Le choix d'IBM par le CNRS s'est fait sur la base d'un contrat négocié, rendu possible par la loi de programmation pour la recherche de 2006. Arnold Migus, directeur général du CNRS, s'était d'ailleurs félicité, lors de l'annonce de la mise en place du supercalculateur, de la rapidité avec laquelle l'acquisition avait ainsi pu être menée. Sur le terrain des supercalculateurs, Bull souligne qu'il rencontre fréquemment des acteurs comme SGI, HP, Cray et IBM, de fait son principal concurrent. Les plateformes de calcul intensif de Bull s'appuient sur une technologie de type cluster reposant sur des processeurs X86 standards. « Notre valeur ajoutée réside dans le système de management Bull Advanced Server, la couche logicielle qui permet de gérer l'ensemble des clusters », indique Philippe Miltin. Au dernier trimestre 2007, le constructeur a participé à un appel d'offres du ministère de la Recherche brésilien, face à IBM, SGI et HP, à l'issue duquel il a remporté le marché pour quatre universités sur sept. (...)
(10/01/2008 17:02:44)IBM condamne à mort l'Itanium d'ici 5 ans
IBM ne donne pas cher de la peau du processeur Itanium, un des deux concurrents de son Power avec le Sparc de Sun. Selon Scott Handy, vice président chez IBM, responsable de la stratégie Linux et Open Source, l'Itanium co-développé par Intel et HP n'en aurait plus que pour cinq ans. C'est ce qu'il a déclaré à notre confrère The Register. Il est vrai qu'IBM grignote des parts du marché Unix à HP depuis quelques mois. Mais si le choix technologique qui consiste à pousser le Power vers les hautes fréquences paye aujourd'hui, il pourrait avoir un revers. Intel et Sun ont pris le temps de revoir leur architecture pour augmenter le nombre de threads plutôt que la performance brute. Une stratégie qui pourrait porter ses fruits à moyen terme. Si les volumes de vente sont encore là, ironise Scott Handy. On verra si lui aussi... (...)
(08/01/2008 15:06:01)Le PDG d'Intel prédit un lifting du visage du Web
Dans son discours inaugural hier au CES de Las Vegas, Paul Otellini, le PDG d'Intel, s'est plié à l'exercice habituel de la boule de cristal. Et ses prédictions ont rejoint en grande partie celles prononcées par Bill Gates la veille, puisque Paul Otellini a décrit un monde d'objets numériques interconnectés, et surtout un Web beaucoup plus personnalisé, offrant davantage d'immersion et d'interactivité. Pour le patron d'Intel, Internet offre une expérience pénible pour l'utilisateur. Prenant l'exemple de la recherche, Paul Otellini décrit un processus long, où il faut allumer un ordinateur, se rendre sur le site d'un moteur de recherche, puis parcourir les résultats. Ce processus est en train de changer, indique Paul Otellini. Bientôt, dit-il, il sera bien plus personnalisé, c'est la recherche qui viendra à l'utilisateur, et non l'utilisateur à la recherche. Et cela grâce à de nouvelles interfaces - Paul Otellini a cité l'exemple de la Wii, la console de jeu de Nintendo -, à des appareils connectés - grâce au Wimax, le standard défendu par Intel - et aux réseaux sociaux. Ainsi, l'utilisateur sera reconnu et ses besoins anticipés. Canmore, puce tout-en-un pour les appareils mobiles multimédias De fait, la caractéristique première des réseaux sociaux est d'agréger des données sur les utilisateurs. Paul Otellini a pointé sur eJamming Audiio, réseau social et outil collaboratif pour partager ses goûts musicaux et faire un boeuf avec d'autres internautes. Une collaboratrice de Microsoft, la veille, avait fait une démonstration de Zune Social, le réseau social, encore en bêta, rattaché au lecteur audio de Microsoft. Un bon moyen de partager ses goûts musicaux... et de diriger l'internaute vers un site d'achat en ligne. Revenant à sa marotte du jour, Paul Otellini a expliqué que se généraliseraient les appareils mobiles connectés au Web - et animés par des technologies Intel, comme le futur Canmore, une puce intégrant les éléments nécessaires pour de la télévision HD et du son de haute qualité. Grâce à ces puces tout-en-un, ces appareils prendront moins de place, et dans la mesure où ils seront connectés et connaîtront les goûts de l'utilisateur grâce aux réseaux sociaux, ils pourront anticiper ses demandes. Là, c'est aller un pas plus loin que Bill Gates, qui a dévoilé un prototype permettant de récupérer moult informations à partir d'un capteur photo : le programme du cinéma, le menu du restaurant, le trajet pour y aller... Mais il fallait viser et capturer l'image du bâtiment en question. Pour l'anticipation des besoins, il faudra attendre encore un peu. (...)
(07/01/2008 17:23:34)Le CNRS met 207 teraflops à la disposition de la communauté scientifique
207 teraflops. C'est la puissance du calculateur que le CNRS vient d'acquérir auprès d'IBM afin de le mettre à la disposition de l'ensemble de la communauté scientifique française. 140 Teraflops seront accessibles dès la fin du mois de janvier, la puissance totale étant prévue pour juillet prochain. Un teraflop correspond à mille milliards d'opérations en virgule flottante par seconde. « Et nous pensons déjà à quelques petaflops », anticipe Catherine Bréchignac, présidente du CNRS. Cette capacité de calcul intensif va d'abord satisfaire des besoins urgents en recherche climatologique. Elle sera aussi mise à profit dans les sciences de la terre et de l'univers (océanographie, astrophysique...) et servira potentiellement pour tous les traitements nécessitant des puissances de calcul très importantes : physique fondamentale, chimie, ingénierie, biologie, mathématiques appliquées, informatique. « Un rattrapage », selon Valérie Pécresse Il était temps. Valérie Pécresse, ministre de l'enseignement supérieur et de la recherche, le reconnaît : « C'est un rattrapage ». Ces dernières années, la France avait « accumulé un retard dans ses investissements scientifiques ». L'acquisition conséquente que vient de réaliser le CNRS n'est donc qu'une première étape pour le combler. L'avenir, évoque la ministre, c'est aussi la réflexion que va conduire le comité stratégique du calcul intensif (CSCI) mis en place cet automne, et le projet GENCI (grand équipement national de calcul intensif ) mené par l'Etat, le CEA, le CNRS et les universités. Jusque-là, le CNRS ne disposait que de 7 teraflops. Entre son propre centre de calcul (l'Idris), le CCRT du CEA et le Cines (centre informatique pour l'enseignement supérieur), on ne rassemblait pas plus de 25 teraflops. « Il était nécessaire de faire un gros effort sur le calcul », admet la présidente Catherine Bréchignac. Les 25 millions d'euros que l'organisme vient d'investir dans la plateforme conçue par IBM (une somme qui inclut la maintenance sur quatre ans) ont été réglés sur ses fonds propres, avec une participation de 10% de l'Institut de France. Au 3ème rang mondial pour la puissance du calculateur Moyennant un coût d'accès qui n'a pas encore été déterminé, les entreprises pourront aussi exploiter cette formidable puissance de calcul qui place pour l'instant la plateforme du CNRS au troisième rang mondial des supercalculateurs. Pour l'instant seulement car les performances progressent constamment et le classement mondial des plateformes HPC (high performance computing) se modifie régulièrement. Aujourd'hui, devant les 207 teraflops (en puissance de crète) du CNRS, on trouve le demi petaflop de l'infrastructure installée en Californie par le département américain de l'énergie et IBM, au Livermore Laboratory, et le quart de petaflop du centre de recherche allemand de Jülich (plateforme également livrée par IBM). Une machine SMP et une MPP couplées par un stockage commun A l'initiative du CNRS, le supercalculateur fourni par IBM présente la particularité d'être une plateforme hybride, « composée de deux machines couplées par un stockage commun », explique Arnold Migus, directeur général du CNRS. « La première machine, d'une puissance de 68 teraflops, exploite une architecture SMP qui va permettre d'optimiser les applications actuelles. La seconde machine prépare l'avenir. » D'une capacité de 139 teraflops, elle repose sur un système BlueGene/P qui exploite une architecture MPP (massivement parallèle). La première machine, sous IBM AIX, comprend huit cabinets IBM Power6, 3 584 processeurs de calcul et 18 To de mémoire. La seconde, sous Linux, intègre dix cabinets BlueGene/P, 40 480 processeurs de calcul et 20 To de mémoire. Entre les deux, la gestion unifiée des données se fait par un système de fichiers global et un système commun de gestion des travaux. « Ce qui est très important, c'est que l'on peut passer facilement d'une machine à l'autre », insiste Arnold Migus qui se plaît à souligner par ailleurs la rapidité avec laquelle cette acquisition a été menée : « Moins de six mois entre le cahier des charges et la livraison. Ce qui prouve que nous pouvons faire aussi bien que le privé lorsque la loi nous y autorise ». Le directeur du CNRS fait ici référence au dispositif d'achat d'équipement scientifique défini par la loi de programmation pour la recherche de 2006. C'est au terme d'une procédure de marché négocié qu'IBM a été retenu. L'offre d'autres fournisseurs a bien été examinée mais, selon Arnold Migus, IBM était le seul à pouvoir répondre au cahier des charges et en particulier à la mise en commun de la partie stockage. Le constructeur national Bull, notamment, n'apportait « qu'une partie de la réponse ». (...)
(26/12/2007 15:07:26)Un service pour calculer l'impact de la virtualisation sur la consommation d'énergie
Quel impact la virtualisation peut avoir sur la consommation d'énergie ? C'est la question à laquelle tente de répondre la société américaine Logicalis, en mettant en ligne un calculateur des émissions de carbone et de la consommation d'énergie (IT Carbon and Power Consumption Calculator). Après que l'utilisateur a entré la configuration de son parc de serveurs et de PC, le service s'attèle à évaluer les réductions de CO2 et de consommation d'électricité que la virtualisation pourrait offrir. Il s'appuie pour cela sur ses propres statistiques ainsi que sur la base de données du Department of Statistics - qui indexe notamment les émissions de CO2. Destiné aux seuls américains, l'outil n'est pas accessible en Europe. Mais pourrait faire école, à l'heure où les centres de calculs se focalisent à réduire leur consommation d'électricité. (...)
| < Les 10 documents précédents | Les 10 documents suivants > |