Flux RSS
108538 documents trouvés, affichage des résultats 4591 à 4600.
| < Les 10 documents précédents | Les 10 documents suivants > |
(16/03/2011 16:50:02)
Le prix des mémoires s'enfamme avec les évènements nippons
Les principaux fournisseurs japonais ont déclaré que les usines où sont fabriquées ces puces ont été largement épargnées par le séisme, ou bien qu'elles se trouvent dans des zones où ne s'appliquent pas les restrictions en électricité susceptibles d'arrêter la production. Si l'on prend acte de ces déclarations, on peut penser que les marchés de la mémoire sur-réagissent aux évènements. Mais, selon les analystes, ces augmentations de prix révèlent peut-être un problème encore plus grave pour l'industrie mondiale du processeur : les fournisseurs japonais de composants et de matériels, essentiels à la production de ces processeurs, ont subi des dommages.
Ainsi, le prix de la mémoire flash NAND, support de stockage principal des iPad, iPhone et autres appareils mobiles, a augmenté de près de 20 % depuis le tremblement de terre, pendant que les entreprises tentaient d'estimer si les usines fabricant ces puces avaient été endommagées. DRAMeXchange, tableau de bord des échanges sur les mémoires NAND, DRAM et autres puces, fait remarquer que, alors que les prix ont augmenté, le nombre de vendeurs est resté faible, signe que la plupart des entreprises préfèrent conserver leurs stocks de puces plutôt que de réaliser un profit rapide. Selon Jim Handy, analyste chez Objective Analysis, « le marché du NAND a réagi très fortement parce que le Japon fournit 40 % des puces flash NAND dans le monde. »
Toshiba se veut rassurant
Toshiba, l'un des plus grands fournisseurs de NAND au niveau mondial, a déclaré qu'aucune de ses usines de mémoire flash NAND n'avait été endommagée par le tremblement de terre ou le tsunami. Une seule est située dans la zone du tremblement de terre, à Kitakami City, dans la préfecture d'Iwate, mais elle produit des puces logiques, et non des puces mémoire. « La production de cette usine a cessé tout de suite après le tremblement de terre et reste encore hors service, » comme l'a indiqué Toshiba. Les usines de Toshiba produisant de la mémoire flash NAND se trouvent à Yokkaichi, à environ 900 kms de l'épicentre du séisme et de la zone touchée par le tsunami.
« Deux usines ont temporairement cessé leurs activités le 11 mars, heure japonaise, mais la production a repris et depuis elles fonctionnent à nouveau normalement, » a précisé Toshiba. « Nous examinons très attentivement les répercussions éventuelles du tremblement de terre sur nos équipements de production, mais jusqu'à présent nous constatons que l'impact a été minime, » a ajouté le constructeur.
[[page]]
Selon le cabinet d'études iSuppli, « le prix de la DRAM, cette mémoire utilisée dans la majorité des processeurs que l'on retrouve dans les ordinateurs de bureau, les ordinateurs portables et les serveurs, a fait un bond de 7 % après le tremblement de terre, avant de se stabiliser. » Elpida Memory, le principal fabricant de DRAM au Japon, a fait savoir de son côté que ses usines de fabrication de DRAM n'avaient pas été affectées par le séisme. Sa principale usine se trouve à Hiroshima, dans le sud-ouest du Japon, soit à plus de 800 kms de la région où s'est produit le tremblement de terre.
Des dommages avec les séismes
Alors que les usines japonaises produisant de la mémoire NAND et DRAM semblent être sorties relativement indemnes du séisme de magnitude 8.9, certains des plus grands fournisseurs mondiaux de matériaux essentiels pour la fabrication des puces, notamment les plaquettes de silicium sur lesquelles sont gravées les processeurs, ont dû arrêter leur production. Sumco Corporation et Shin-Etsu Chemical, qui fournissent la plupart des plaquettes de silicium utilisées dans le monde, ont dû cesser leur production, certaines de leurs usines étant situées à proximité de la région où le tsunami a balayé des villages entiers et endommagé les systèmes de refroidissement de l'une des centrales nucléaires japonaises. Sumco a déclaré que son usine de Yonezawa avait été fermée après le séisme. Selon un premier bilan, aucun employé n'a été blessé, et Sumco espère remettre l'usine en route après avoir fait des vérifications de sécurité. En ce qui concerne Shin-Etsu Chemical, trois de ses usines, respectivement situées à Annaka, Kamisu, et Nishigo Village, ont été arrêtées après le tremblement de terre.
Les équipements de production de deux d'entre elles - Kamisu et Nishigo Village - ont été endommagés, et « à l'heure actuelle, l'entreprise ne sait pas combien de temps il lui faudra pour rétablir ces équipements et ces installations, » a indiqué Shin-Etsu dans un communiqué. Selon le Crédit Suisse, Sumco détient 35 % des parts du marché de la plaquette de silicium 300 millimètres, tandis que Shin-Etsu en détient 30 %. « Au total, les entreprises japonaises fournissent 72 % de l'ensemble des plaquettes de silicium au niveau mondial, » a commenté la banque d'investissement.
Les pannes de courant ralentissent la production de plaques de silicium
Les entreprises s'attendent également à des pannes de courant qui risquent de perturber leur production. Selon Tokyo Electric Power Co., en plus des centrales nucléaires, des centrales thermiques et hydroélectriques ont également été arrêtées après le tremblement de terre. Près d'un tiers de ses installations ont été mises hors circuit par le séisme. Depuis lundi, la compagnie d'électricité, qui s'emploie à rétablir le courant, a procédé à plusieurs coupures d'électricité qui ont affecté la population et les entreprises situées dans le nord du pays.
Certains géants du processeur, comme Taiwan Semiconductor (TSMC) et le sud-coréen Samsung Electronics, ont fait savoir qu'ils ne s'attendaient pas à subir un impact à court terme du au manque d'approvisionnement en plaquettes de silicium. Certes, les fabricants de puces conservent toujours des stocks de plaquettes et peuvent aussi compter sur les distributeurs. Mais si la situation actuelle se poursuit, elles pourraient en ressentir les effets. Selon les estimations faites par le Crédit Suisse, « les fondeurs, les fournisseurs de plaquettes et les distributeurs disposent d'un stock qui leur permettrait de tenir 1 à 2 mois. Mais, si le défaut d'approvisionnement perdure, leur activité serait touchée. »
Pas de virtualisation chez Facebook mais des micro serveurs
Le géant du réseau social s'est prononcé en faveur de solutions Intel pour équiper ses datacenters de micro serveurs. Le fondeur californien va en effet proposer en 2012 quatre processeurs basse consommation pour animer ces micro serveurs. Avec notamment aux extrêmes : un Xeon consommant 45 watts et un inédit Atom, également doté d'instructions 64 bits, affichant une enveloppe thermique de 10 watts. Toutes ces puces auront des fonctionnalités habituellement réservées aux serveurs, tels que la compatibilité avec le jeu d'instruction 64 bits pour adresser beaucoup plus de RAM et la correction d'erreurs mémoire (ECC).
Facebook a déjà testé ces micro serveurs en production et s'intéresse à cette architecture pour équiper massivement ses centres de calcul, a expliqué Gio Coglitore, directeur de laboratoires de Facebook à l'occasion d'une conférence de presse Intel à San Francisco. L'intégration de fonctions réservées aux puces pour serveur est la clef pour utiliser ces micro serveurs dans les entreprises, a-t-il ajouté.
Des solutions déjà proposées sur base Intel
Le micro serveur de petite taille et de faible puissance est un concept qu'Intel a présenté en 2009. Très concentrés - jusqu'à 256 processeurs chez SeaMicro par exemple - les micro serveurs sont plus beaucoup denses que les serveurs en rack ou en lames. Dans un datacenter classique, ils peuvent en outre partager les systèmes de refroidissement et les connexions réseau qui équipent déjà les armoires traditionnelles, a souligné Boyd Davis, vice-président marketing en charge du groupe datacenter chez Intel.
Des constructeurs tels que Dell, Seamicro et Tyan ont déjà adopté cette architecture, particulièrement populaire chez les grands fournisseurs de services cloud computing et les petits hébergeurs de services web, selon Intel. La firme de Santa Clara s'attend à ce que les micro serveurs représentent à peu près 10% du marché des processeurs pour serveurs.
[[page]]
Les serveurs web front-end, énormément utilisés par Facebook, sont particulièrement bien indiqués pour passer sur une architecture de type micro serveurs, selon Gio Coglitore. «Après l'annonce d'Intel, c'est juste sur le point d'arriver », a-t-il dit. Facebook va probablement commencer à installer des microserveurs sur une grande échelle en fin d'année ou au début de la prochaine.
La plate-forme sociale utilise plusieurs types de serveurs dans les différentes parties de ses datacenter, mais l'aversion de la société à l'égard de la virtualisation s'étend à toutes ses infrastructures, a indiqué Gio Coglitore. «Lors de nos différents tests, nous avons validé que notre infrastructure informatique nous permet de réaliser des économies et nous apporte la souplesse nécessaire pour accompagner notre croissance. Si la virtualisation était la bonne approche, nous serions passés à un environnement virtualisé. »
Pas de recours à la virtualisation
Facebook veut être en mesure d'équilibrer ses charges de travail sur plusieurs systèmes et perdre un serveur sans dégrader l'expérience utilisateur. «Lorsque vous commencez à virtualiser, l'importance de ce serveur particulier devient beaucoup plus importante, et quand vous avez concentré une grande charge de travail, cela devient encore plus difficile de s'en passer » assure à contre-courant Gio Coglitore. Ce dernier préfère utiliser des machines aussi anonymes et interchangeables qu'un « fantassin ». « La virtualisation rend plus difficile la gestion des ressources matérielles de cette façon, précise le responsable informatique de Facebook. L'ajout d'une couche logicielle de type hyperviseur tend également à verrouiller l'infrastructure, a-t-il précisé.
En outre, bien que Facebook puisse avantageusement utiliser des serveurs plus puissants sur ses plates-formes pour certains besoins, la firme a choisi de se tourner vers des machines d'entrée de gamme pour des questions budgétaires. Facebook préfère en effet changer de serveurs tous les deux à trois ans, pour suivre les évolutions processeurs d'Intel et des autres fondeurs, indique Gio Coglitore.
Pour tester les plates-formes micro serveurs, Intel expédie actuellement des puces Xeon 45 watts (E3 1260L) et 20 watts (E3-1220L), ainsi qu'un processeur 15 watts reposant sur l'architecture Sandy Bridge. La solution Atom 10 watts, attendue l'année prochaine, n'a pas encore reçu d'appellation commerciale selon Boyd Davis d'Intel.
Google Apps assouplit ses mises à jour pour les administrateurs
Jusqu'à présent, Google apportait, de manière transparente et continue, des améliorations à sa suite d'Apps dès qu'elles avaient été testées et jugées bonne pour le service, à la façon dont l'entreprise le fait pour ses applications grand public et ses sites. Cependant, certains administrateurs d'Apps, en particulier ceux des grandes entreprises, ont souhaité obtenir à la fois, plus de contrôle sur les changements, mais aussi bénéficier d'un temps d'adaptation avant de rendre les mises à jour opérationnelles dans leurs espaces de travail. Ainsi, les administrateurs d'Apps pourront désormais opter pour des mises à jours programmées dites « Scheduled Release », afin d'appliquer les améliorations selon un calendrier hebdomadaire ou bi-hebdomadaire, en bénéficiant d'un délai d'une ou deux semaines avant une mise en ligne.
« Ce processus de mise à jour des Google Apps répond aux besoins de nos clients professionnels, » a déclaré Rajen Sheth, Group Product Manager, Google Enterprise. En même temps que le lancement de l'option de mise à jour programmée, Google inaugure un portail consacré aux updates des Apps et à leurs améliorations, qui contribuera aussi à mieux informer les administrateurs. Ceux-ci pourront y trouver des informations sur les Apps, des ressources, et en particulier du matériel de formation à l'intention de leurs utilisateurs finaux.
Une demande forte des administrateurs
Les Apps, cet ensemble d'outils de collaboration et de communication entièrement hébergé sur le web, comprend des fonctions de messagerie, d'agenda, des applications de productivité bureautique, une messagerie instantanée, des fonctions intranet et d'autres applications professionnelles. En tant que tel, les administrateurs d'Apps ont peu ou pas de contrôle sur le logiciel, en particulier en ce qui concerne sa maintenance et ses améliorations, un processus entièrement géré par Google. En 2010 par exemple, l'éditeur a effectué 130 mises à jour sur les Google Apps. Certes, l'un des avantages du cloud computing et de ces suites hébergées comme les Apps est de laisser aux fournisseurs la responsabilité de la maintenance, du déploiement des correctifs et des mises à jour. Mais il a aussi pour inconvénient de retirer aux services informatiques le contrôle sur les cycles de mise à jour des logiciels.
« Certains administrateurs d'Apps, en particulier ceux des grandes et moyennes entreprises dont le service informatique est chargé d'apporter un support technique à ses utilisateurs finaux, ont demandé à Google plus de visibilité sur les sorties. Car des changements, même minimes, peuvent avoir des conséquences dramatiques au moment de l'utilisation, » a déclaré le Group Manager. Par exemple, un changement d'interface peut perturber grandement les utilisateurs finaux et provoquer une série d'appels à l'assistance technique.
[[page]]
Si le personnel chargé du support n'a pas pu tester lui-même les nouvelles fonctionnalités, il peut se trouver très embarrassé pour répondre immédiatement aux questions qu'on lui pose. « Ils veulent être informés de la date à laquelle auront lieu les mises à jour, ce qui change, disposer de plus d'informations sur les nouveautés, pour être mieux préparés et savoir répondre à leurs utilisateurs », a déclaré Rajen Sheth. « C'est pourquoi nous voulons offrir plus de visibilité à ce processus, » a t-il ajouté.
Des programmations sur les éléments visibles
Pour Rebecca Wettemann, analyste dans le domaine de l'industrie, cette nouvelle manière d'opérer est une bonne chose. « Cela montre que Google travaille à rendre ses applications plus adaptées au fonctionnement des grandes entreprises, » a-t-elle déclaré. « De plus, les entreprises souhaitent souvent accompagner les mises à jour de sessions de formation, les entourer d'autres initiatives ou faire tester les nouvelles fonctionnalités par un groupe pilote avant de déployer l'application à l'ensemble de ses salariés, » ajoute-t-elle. « Cela devrait aider les responsables informatiques à tirer profit des innovations de Google selon un calendrier propre, pour limiter les perturbations et faire en sorte que les utilisateurs en tire de meilleurs bénéfices,» a encore déclaré l'analyste. « Pour ce qui est de la mise en oeuvre, nous serons attentifs aux retours faits par les administrateurs. Nous pensons aussi que Google va poursuivre ses efforts pour montrer que l'entreprise investit dans des applications de classe entreprise. »
Par défaut, les clients des Apps seront abonnés à l'option de « Scheduled Release », sauf pour ceux qui avaient déjà choisi de disposer des fonctionnalités en « pre-release. » Ces clients resteront dans le système des mises à jour rapides, c'est à dire que les changements leurs seront appliqués dès qu'ils seront prêts, et cela sans préavis. Même s'ils n'étaient pas abonnés au système de pre-release, les administrateurs d'Apps pourront passer de l'option « mise à jour programmée » à l'option « mise à jour rapide » s'ils le souhaitent. L'option de mise à jour à date différée ne concernent cependant que des éléments visibles des utilisateurs finaux, comme la personnalisation de l'interface ou d'autres fonctionnalités, mais pas celles faites en arrière-plan, notamment les correctifs de sécurité ou de bogues et autres, lesquelles seront toujours déployées à l'ensemble du service d'applications hébergées de Google.
La Chine bloque le mot-clef « fuite nucléaire » sur Internet
Impossible de faire une recherche sur le terme « fuite nucléaire » sur le site de micro-blogging chinois, sina.com, indique l'AFP. En réponse à cette requête les internautes reçoivent le message « Selon les lois en vigueur, le résultat de votre recherche ne peut être communiqué ». Le gouvernement chinois veut canaliser les craintes et les risques de panique de la population sur les évènements qui se déroulent au Japon. Les réseaux sociaux chinois se sont fait l'écho de messages catastrophistes. A tel point que le site sina.com a fait une communication pour réfuter les rumeurs.
(...)
Google s'empare de Green Parrot pour améliorer YouTube
La firme de Moutain View vient d'annoncer le rachat de Green Parrot Pictures, une société irlandaise ayant développé un procédé qui rend les vidéos postées sur YouTube plus nettes, plus stables avec moins de parasites. Le montant de la transaction n'a pas encore été révélé. Selon Google, la technologie conçue par la société irlandaise s'avérera utile pour améliorer la qualité des vidéos prises par des équipements de faible qualité - comme les téléphones portables - dans le cadre de situations particulières telles que les manifestations tournées dans la rue. La technologie de stabilisation d'image de Green Parrot Pictures est déjà utilisée par le cinéma sur des films à gros budget comme Lord of the Rings, X-Men, ou encore Spider-Man.
Près de 200 000 long métrages mis en ligne
«Cette technologie, qui améliore la qualité des vidéos, utilise également moins de bande passante et augmente aussi la vitesse de lecture», a estimé Jeremy Doig, directeur de la technologie vidéo chez Google dans un billet de blog publié hier. Il a ajouté qu'avec l'équivalent de plus de 170 000 long métrages mis en ligne chaque semaine sur YouTube, l'expérience des équipes de Green Parrot dans ce domaine - qui consiste à travailler sur des solutions destinées tant au grand public qu'aux professionnels de la vidéo - serait une source de nouvelles idées et d'innovations pour la plate-forme d'hébergement. En janvier dernier, les sites du géant californien et en particulier YouTube, ont attiré 144,1 millions d'internautes friands de vidéos en ligne, contre seulement 51 millions d'utilisateurs pour Vevo, selon la société de mesure d'audience comScore. Suivent Yahoo, Viacom Digital et AOL qui viennent compléter le top cinq.
(...)
Avec McAfee, Intel veut sécuriser les terminaux mobiles en mode cloud
Intel va dans un premier temps offrir des produits de sécurité reposant sur des logiciels et des services. Dans un second temps, des fonctionnalités de sécurité seront directement intégré aux PC et terminaux mobiles, avec un effort particulier autour du cloud, a expliqué Renée James, vice-président senior et directeur général de l'activité Software et Services, lors d'une téléconférence avec les analystes financiers. Les récents équipements mobiles comme les tablettes et les smartphones sont de plus en plus vulnérables aux malwares et autres attaques informatiques, constate Renée James. Intel veut concevoir des moyens de gérer la sécurité directement dans le hardware, capables de communiquer en temps réel avec des plateformes basées sur le cloud. Ces dernières pourront ainsi fournir des outils de sécurité comme des anti-malwares, l'authentification des utilisateurs et la vérification des adresses IP ou des sites web, ajoute le dirigeant. « Sur le long terme, la sécurité dans les appareils mobiles sera un facteur de différenciation » a déclaré Renée James et d'ajouter « l'intégration de cette problématique dans le cloud est complexe. Vous ne pouvez pas vous réveiller un matin et décidé de le construire immédiatement ».
Intel a annoncé en août 2009 qu'elle ferait l'acquisition de McAfee pour un montant de 7,68 milliards de dollars, un geste qui a surpris de nombreux analystes en raison de l'absence apparente de synergie. Mais le fondeur a déclaré qu'il voulait apporter des capacités de sécurité pour un certain nombre de ses produits, y compris les puces Atom de faible puissance, qui sont utilisés dans les ordinateurs portables et bientôt déclinées sur les smartphones et les tablettes. L'acquisition de McAfee a été finalisée il y a deux semaines. Intel a défini la sécurité comme le troisième pilier de son offre, en plus de la puissance et de la connectivité. La société a déjà intégré quelques fonctionnalités dans ses puces pour renforcer la sécurité des PC, comme VT qui est une technologie basée sur le matériel pour sécuriser et gérer les environnements virtualisés. Le fondeur de Santa Clara va progressivement faire « évoluer » les capacités du silicium pour que des logiciels et des services spécialisés apportent plus de protection à une large variété d'appareils, a annoncé Renée James.
Un modèle d'abonnement cloud
Intel pourrait utiliser un modèle d'abonnement cloud pour générer des revenus autour de la sécurité, a déclaré Dave DeWalt, président de McAfee, qui fait maintenant partie du fondeur. Une gestion à distance de la plateforme pourrait devenir un point de référence sur la sécurité non seulement pour les terminaux mobiles, mais aussi les imprimantes, les distributeurs automatiques de billets, les points de vente ou tous périphériques connectés au sein d'un réseau «intelligent», affirme le responsable. Il ajoute que les malwares sont généralement stockés dans le logiciel; car il est difficile pour les pirates informatiques d'aller sous le niveau de l'OS, l'aspect sécurité doit donc être intégrée à l'intérieur du matériel. Il existe aujourd'hui 48 millions types de logiciels malveillants dans la nature. Renée James s'interroge lui pour savoir « si les gens paieraient pour un tel matériel » et de se rassurer « nous l'espérons ».
La plupart des smartphones et des tablettes utilisent des processeurs ARM et plusieurs OS comme Android ou iOS. Intel continue à balbutier sur ce marché et la domination d'ARM pourrait être un obstacle. Renée James a déclaré que, d'un point de vue logiciel Intel restera une société multi-plateforme. La fragmentation OS n'est pas un problème pour l'entreprise car les puces x86 peuvent exécuter la plupart des systèmes d'exploitation mobiles [NDLR Windows et Linux seulement pour l'instant].
Intel plus tôt cette année a fait l'acquisition de Nordic Edge, une entreprise de sécurité suédoise connue pour ses produits de gestion de sécurité et de renseignement sur les menaces.
Illustration: Renee James lors de l'IDF 2010
Crédit Photo: Intel
(...)(16/03/2011 11:11:37)Google prépare une mise à jour majeure de Blogger
Lors de la conférence SXSW Interactive à Austin, au Texas, Google a annoncé la refonte en profondeur de sa plate-forme de blogs baptisée Blogger. Cette conférence réunissait des représentants d'entreprises comme Microsoft, Samsung, Nokia, Sony et AOL, pour parler de l'avenir d'Internet et des interactions sociales en ligne.
Google a aguiché les blogueurs avec des images de son nouveau tableau de bord (voir illustration), mais s'est retenu d'annoncer de dates de lancement précise pour sa plate-forme. L'éditeur a également donné un aperçu de son outil de recherche de contenus, qui "vous permet de découvrir de nouveaux contenus intéressants sur les mêmes sujets que ceux qui sont abordés par le blog que vous êtes en train de lire".
En 2010, "les utilisateurs de Blogger ont publié plus d'un demi-milliard de billets de blog, qui ont été lus par plus de 400 millions de lecteurs actifs à travers le monde", précise Google. D'après Alexa, une filiale d'Amazon qui suit les évolutions des sites internet, Blogger est actuellement le sixième plus gros site web au monde. Google compte toucher davantage d'internautes cette année avec l'arrivée d'outils qui facilitent la création de blogs.
Site : http://googleblog.blogspot.com/2011/03/whats-new-with-blogger.html
(...)| < Les 10 documents précédents | Les 10 documents suivants > |