Flux RSS

Infrastructure serveur

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

2924 documents trouvés, affichage des résultats 31 à 40.

< Les 10 documents précédentsLes 10 documents suivants >


(16/03/2012 11:17:30)

Airbus renforce sa puissance de calcul avec les POD HP

Pour Airbus, le calcul intensif est une activité stratégique, car il constitue un facteur décisif pour la simulation nécessaire à la conception des avions. Pour améliorer ses capacités en HPC (high-performance computing), Airbus a travaillé avec HP et EDF Optimal Solution, une filiale du groupe EDF spécialisée dans les questions d'éco-énergie, pour déployer en 2011 deux datacenters en conteneur (POD ou Performance Optimized datacenter) sur son site de Toulouse. Le constructeur aéronautique a également installé un de ces POD à Hambourg en 2010. Ces conteneurs sont utilisés par la division ingénierie d'Airbus dont les méthodes de travail nécessitent des puissances de calcul considérables pour concevoir et tester les avions. Grâce à ces installations dédiées au calcul intensif, Airbus revendique la 29e place au niveau mondial, selon le Top 500 officiel des supercalculateurs publié en juin 2011. 

La division «  Flight Physics  » du constructeur aéronautique utilise du calcul intensif depuis 1994 pour réaliser des simulations aérodynamiques et aérolastiques. La puissance de traitement des machines a augmenté de façon exponentielle depuis lors et celles-ci dont devenues indispensable au développement des appareils. Pour Eric Chaput, responsable des outils et méthodes du département Flight Physics chez Airbus, l'utilisation de POD a permis de réduire graduellement le nombre d'essais intensifs en soufflerie et de diminuer à la fois le temps et les coûts.

Une consommation de 500 kWh par heure

À Toulouse, les deux POD disposent d'une puissance de 300 téraflops. À Hambourg, celle-ci s'élève à 200 téraflops. Ces conteneurs contiennent tous les éléments d'un datacenter traditionnel  - serveurs, stockage, réseau, ainsi que des systèmes intégrés d'alimentation électrique et de refroidissement - mais dans une boite rectangulaire de 12 mètres de long. Dans la ville rose, l'alimentation et le branchement électrique sont gérés par HP, en partenariat avec EDF. En Allemagne, c'est Airbus qui en a la charge, avec des partenaires locaux. Les deux conteneurs du site toulousain sont directement reliés au LAN de l'avionneur pour éviter les risques de latence du réseau. Airbus a également précisé qu'ils seraient appelés à s'étendre, si nécessaire. 

Les deux conteneurs rassemblent un total de 2 016 serveurs lames Proliant BL280 G6 configurés en grappe, ce qui permet de fournir, selon HP, des capacités équivalentes à celles d'un centre de calcul  d'une surface proche de 1 000 mètres carrés. Les deux POD peuvent former jusqu'à 1 600 noeuds de calcul, soit 12 coeurs par noeud, ce qui correspond à 5 400 disques durs environ par conteneur.   Les POD de HP sont hébergés dans une structure climatisée, fonctionnant 24 heures sur 24 et consomment environ 500 kilowatts par heure. Cela peut sembler élevé, mais comme l'a fait remarquer Marc Morere, responsable des projets et architectures IT chez Airbus, ces conteneurs consomment beaucoup moins qu'une structure en « brick and mortar ».  « Un datacenter traditionnel équivalent à nos POD toulousains requiert environ 1,8  mégawatt par heure en termes d'électricité pour pouvoir fonctionner, dont seulement un mégawatt pour alimenter les machines  », a-t-il indiqué. «  Le pourcentage restant peut par exemple servir à fournir l'air conditionné ou à charger les batteries de secours  », a-t-il ajouté.

À Toulouse, les POD consomment 250 kilowatts par heure d'électricité de secours  ». D'après Airbus, l'installation de ces deux conteneurs  a diminué par 10 la consommation électrique sur cinq ans, tout en doublant la puissance de traitement. Profitant d'un ratio d'efficacité énergétique (PUE) de 1,25. Airbus indique avoir réduit ses coûts d'exploitation tout en disposant d'une puissance de plus de 15 KW/m2. HP a fourni les services de gestion des datacenters et a géré leur transport depuis l'usine européenne d'Erskine en Écosse,  de même que leur déploiement et leur  mise en service.

 


(...)

(15/03/2012 15:34:25)

SFR et HP lancent trois formules de cloud IaaS pour les PME

SFR et HP ont détaillé ce matin à Paris la deuxième étape de leur partenariat dans le cloud, annoncé en juin 2010. La première phase était technologique, la deuxième apporte le versant commercial. Entre temps, le projet a opéré un virage vers les PME. Axée à l'origine vers les grands comptes, cette offre cloud conjointe s'est repositionnée vers les entreprises de 10 à 5 000 personnes, a souligné Gérald Karsenti, PDG de HP France. « La phase numéro 1 a été très importante pour nous permettre de voir comment le marché évoluait », a-t-il expliqué. « Nous continuerons à adresser les grands clients du CAC 40, mais avec une offre sur mesure », a-t-il ajouté.

De fait, il est apparu que « l'ensemble des PME, et pas seulement dans le secteur high-tech, réfléchissaient à la façon d'optimiser leurs coûts et leur trafic de données en forte croissance », a exprimé à sa suite, Pierre Barnabé, DG de SFR Business Team. « Le cloud les attire mais il faut être capable de les rassurer et de leur proposer des offres qui leur simplifie la vie en combinant de bout en bout les axes télécoms et informatique. C'est essentiel dans notre conquête du monde de l'entreprise, basée sur des actifs forts », a-t-il insisté. Pas de cloud sans réseau, mais sans cloud, le réseau « perdra aussi de sa valeur ».

L'offre de services « Suite infrastructure cloud » démarre avec un environnement IaaS (Infrastructure as a service) qui s'appuie sur les plateformes CloudSystem de HP au sein des datacenters de SFR, en France. Concrètement, dès le 11 avril, trois formules d'hébergement sécurisé de serveurs virtuels seront proposées : « Start », « Internet »  ou « Critique ». Suivant le niveau de qualité de service recherché, les entreprises se tourneront vers l'une ou l'autre. La première formule, de type paiement à l'usage, conviendra à l'hébergement de sites web et pourra aussi servir aux plateformes de développement, de test et de secours. La formule Internet est destinée à des usages plus sensibles : sites web importants, applications en ligne. Quant à la troisième formule, « haut de gamme, tous services inclus », son nom suffit à définir sa destination : site web critique et applications métiers. 

Des milliers de commerciaux répartis en France

Ces offres seront commercialisées par les partenaires de SFR et HP, présentés comme des réseaux de proximité. C'est un point sur lequel l'un et l'autre ont particulièrement insisté. Ils en rassemblent respectivement 150 et 4 500. « Des milliers de commerciaux en France avec des offres combinées de bout en bout », a pointé le DG de SFR. Du côté de HP, cette offre de services cloud constitue aussi une opportunité de faire évoluer ce réseau indirect au sein duquel il compte 400 partenaires stratégiques. « Certains sont déjà spécialisés, par secteurs d'activité ou par segments de clientèle, ils vont pouvoir proposer leurs propres solutions autour de cette offre cloud ».

Sur un terrain où la concurrence est mondiale, « notamment sur l'IaaS, avoir des datacenters en France est un avantage déterminant », a rappelé Pierre Barnabé. « Nous sommes un peu moins cher qu'Amazon et nous pouvons accompagner nos clients sur l'ensemble du territoire ». Sur l'offre « Critique », SFR et HP pensent que les coûts d'utilisation de leurs services cloud sont aussi moins élevés que ceux de Microsoft, de Verizon, d'AT&T et d'OBS, mais au-dessus de ceux de Rackspace. Sur l'offre Start, ils semblent moins compétitifs selon leur propre échelle de comparaison.

Sauvegarde et sécurité en juin, SaaS au 3e trimestre

Cette première offre d'IaaS va s'enrichir dès le mois de juin avec des services de sauvegarde, d'archivage, de partage de données et de sécurité (protection d'intrusion et antispam, notamment). Et à partir du troisième trimestre, SFR et HP proposeront des applications SaaS axées sur le CRM avec une gestion des contacts entrants et sortants. Aucune précision n'a pu être fournie sur l'origine des solutions, de type centre d'appels, qui seront ainsi proposées.

Des objectifs chiffrés de cette collaboration ont été communiqués. HP et SFR visent 25% du marché cloud des PME en 2015, soit 200 millions d'euros de chiffre d'affaires, à hauteur de 60% pour SFR. Pour 2012, les ambitions restent modestes : 50 M€, contre 30 M€ déjà réalisés aujourd'hui par SFR sur le segment visé : les entreprises de 10 à 5 000 personnes. « C'est un chiffre très conservateur, je le reconnais », a admis Gérald Kersanti. 

Enfin, interrogé sur le projet de cloud souverain Andromède sur lequel SFR a déposé un dossier avec Dassault Systèmes, Pierre Barnabé a rappelé qu'il avait vocation à proposer une « solution d'usine à énergie numérique très ouverte pour adresser l'ensemble du marché ». Il le juge entièrement complémentaire du partenariat avec HP. « Plus il sera compétitif et ouvert, plus ce sera au bénéfice de nos solutions. Aller puiser dans cette usine nous permettra d'avoir du SaaS plus compétitif. Ce sera un accélérateur extraordinaire de cet accord », a-t-il conclu.

(...)

(09/03/2012 10:14:41)

Dossier HPC : La course aux flops dopée aux GPU

Plus de 8% de croissance par an est attendu en Europe pour le marché du HPC (High Performance Computing ou Calcul haute performance) jusqu'en 2015 (source Intersect360 Research) : ce secteur ne connaît pas la crise ! Et pour cause, les besoins de performances pures ne cessent de croître dans les entreprises. Entre la finance, le cinéma, l'industrie, la santé, les universités, etc., tous les secteurs d'activités aujourd'hui réclament de la puissance de calcul pour des solutions d'ingénierie en 3D, de la simulation, des applications médicales et financières. 

Bref, le supercalculateur n'est plus seulement réservé au calcul scientifique dans les grands centres de R&D. Ce marché dominé historiquement par IBM et Bull en Europe et en France attise la concurrence des fabricants, mais aussi celle des fondeurs et leurs architectures. On assiste ainsi à une discrète bataille entre les CPU d'un côté et les GPU de l'autre. Aujourd'hui, les CPU dominent, mais les projets de machines HPC combinant peu de CPU et beaucoup de GPU poursuivent leur croissance. (...)

(07/03/2012 16:42:45)

Intel cible les datacenters avec ses puces Xeon E5

Reposant sur la micro-architecture Sandy Bridge, les puces  pour serveurs Xeon E5-2600 (bi-socket) et E5-1600 (mono-socket), incluent jusqu'à 8 coeurs et sont jusqu'à 80% plus rapides que leurs prédécesseurs, a déclaré Bernadette Andrietti, directrice d'Intel EMEA, lors d'une conférence de presse à Paris. Ces processeurs consommeraient également moitié moins d'énergie que leurs prédécesseurs, selon Intel. Les puces Xeon E5 sont cadencées à 2,9 GHz max pour le E5-2680, avec 20 Mo de cache, et un mode Turbo 2.0 autorisant une surcadence ponctuelle de 900 MHz, et 3,6 GHz pour le E5-1600 . Quatre canaux mémoire sont désormais proposés au lieu de trois précédemment pour un maximum de 768 Go en DDR3/1600. Jean-Philippe Laurent, directeur technique Intel EMEA, nous a précisé que cette puce était composée de 2,3 milliards de transistors contre 1,570 pour la génération précédente (Xeon 5600).

La dernière mise à jour majeure d'Intel sur le segment des serveurs remonte à mars 2010, quand la firme avait annoncé ses puces Xeon 5600. Le portefeuille serveur actuel d'Intel comprend des processeurs d'entrée de gamme Xeon E3 (bi-socket), basés sur l'architecture Sandy Bridge, et haut de gamme Xeon E7, reposant sur l'architecture Westmere avec un maximum de 10 coeurs.

Un lancement avec les partenaires éditeurs et constructeurs

Pour le lancement de l'E5, Intel a travaillé avec les principaux fournisseurs de logiciels et les constructeurs de serveurs habituels pour valider des innovations techniques. Le fondeur recense déjà plus de 400 modèles de serveurs reposant sur sa nouvelle puce. Bull, IBM, Hewlett-Packard, SGI et Dell sont parmi les entreprises qui lancent de nouveaux serveurs. IBM indique que sa lame bi-socket BladeCenter HS23 est jusqu'à 62% plus rapide, supporte quatre fois plus de mémoire vive et accueille 20% de machines virtuelles supplémentaires que la BladeCenter HS22. SGI présentait aussi à Paris sa lame équipée de deux puces Xeon E5-2600. Intel a également déjà fourni des puces E5 pour un supercalculateur baptisé Stampede, qui sera déployé en 2013 au Texas Advanced Computing de l'Université du Texas. Le supercalculateur devrait offrir des performances en crête de 10 petaflops (soit 10 000 milliards d'opérations par seconde). Si les processeurs E5 assumeront 20% de la charge de travail, les 80% restant seront assurés par les puces spécialisées Mic .

La croissance globale du trafic Internet met à rude épreuve les centres de calcul, et ces nouveaux processeurs serveur aideront à répondre plus rapidement aux requêtes, a déclaré Mme Andrietti. « Pour 120 tablettes ou 600 smartphones mis en service, il faut un serveur supplémentaire. En 2015, selon une de nos études réalisées fin 2011, il y aura 3,1 milliards d'utilisateurs connectés, et aujourd'hui chaque utilisateur génère 4 Go de données par jour. » Les nouveaux processeurs devraient également aider à augmenter la virtualisation de serveurs et contribuer à réduire les coûts  en alimentation électrique et en  refroidissement. Mais Intel ne se focalise pas uniquement sur la performance. L'entreprise se penche également sur les autres défis liés aux datacenters, à savoir l'amélioration du stockage, de réseau et la sécurité, a expliqué  Mme Andrietti.

[[page]]

Le Xeon E5 intègre par exemple un contrôleur PCIe 3.0 qui double la bande passante disponible en entrée/sortie et réduit la latence de 30%, ce qui pourrait aider au déploiement de machines virtuelles et de clouds à grande échelle. Les Xeon E5-2600 processeurs sont les premiers à intégrer le bus PCI-Express 3.0 sur le processeur. La technologie PCIe 3.0 déplace des données avec un débit de 8 Gbit/s , ce qui est une amélioration considérable par rapport à la précédente génération PCI-Express 2.0, qui plafonne à 5 Gbit/s.

Cette génération de puce est également la première à permettre un accès direct à la cache du processeur sans passer par la mémoire vive (fonction Data Direct I/O). La technologie réduit le besoin de rafraîchir la DRAM en limitant les aller/retour dans la mémoire système, afin de réduire la latence et d'économiser un peu d'énergie. Cette famille de puce supporte également les instructions AVX (Advanced Vector Extension) , qui permet d'améliorer les performances des applications gourmandes en calculs, telles que l'analyse financière, la création de contenus médias, ou la recherche médicale.

Intel a également lancé un contrôleur Ethernet 10 Gigabit pour cartes mères ce qui devrait faciliter le déploiement de cette technologie dans les serveurs. La généralisation de la technologie 10 Gigabit Ethernet devrait en effet accélérer le trafic réseau dans les datacenters.

La famille de processeurs Xeon E5-2600 est composée de 17 modèles, dont les prix vont de 198 $ à 2,050 $ (pour 1000 unités). En plus de cela, trois puces Xeon E5-1600 à mono-socket seront attendues pour les serveurs et les stations de travail, à des prix allant de 284 à 1080 $.

 

 

(...)

(07/03/2012 12:12:53)

Amazon baisse, encore, les prix de ses services IaaS

Depuis 6 ans, c'est la 19e fois que AWS, le leader du marché, revoit à la baisse le tarif de ses services cloud. L'impact varie en fonction de la localisation géographique et le type de service utilisé, mais les plus grandes baissent profitent aux clients qui louent des instances de calcul et de stockage réservées, rattachées aux offres Elastic Compute Cloud (EC2) et Relational Database Service (RDS) du fournisseur.

L'instance réservée permet d'acheter de la puissance de calcul supplémentaire pour une période de temps définie. L'autre alternative est la solution à la demande, qui consiste à mettre en route ou à arrêter des serveurs à la demande du client qui paie alors sur une base ponctuelle. Le tarif des instances EC2 réservées subit une baisse pouvant atteindre 37% dans certaines zones géographiques, comme l'Est des États-Unis par exemple. L'offre à la demande baisse pour sa part de 10% dans cette même région. Selon le calculateur de prix de AWS, les instances à la demande Amazon EC2 High-Memory sont facturées 0,90 dollar de l'heure sous Linux/UNIX et 1,14 dollar l'heure sous Windows. Les tarifs de l'offre d'instances réservées RDS ont été également actualisés, affichant une baisse pouvant atteindre 42%, et jusqu'à 10% pour utilisation à la demande.

Le fournisseur semble aussi faire un appel du pied à ses clients d'entreprises qui utilisent beaucoup de produits AWS. Amazon a ainsi informé ses clients qu'ils pouvaient économiser de l'argent en élargissant leur utilisation EC2. Les clients qui ont des instances réservées à hauteur de 250 000 dollars bénéficient désormais de 10% de réduction sur tout achat d'instance réservée supplémentaire. Ceux qui dépassent les 2 millions de dollars d'instances réservées bénéficient d'une remise de 20% sur leurs futurs achats d'instances réservées.

(...)

(07/03/2012 09:50:30)

Pulse 2012 : Tivoli veut faciliter le voyage vers le cloud

Lors de la deuxième journée de l'évènement Pulse 2012 d'IBM à Las Vegas, il a beaucoup été question de cloud. Steve Mills, senior vice-président en chrage des activités Software et Systems d'IBM était chargé de donner quelques chiffres sur la réalité du cloud chez Big Blue. 92% des serveurs ont été virtualisés, 110 Po de données ont été stockées (comprenant production et sauvegarde), gestion d'une flotte de 850 000 terminaux mobiles (PC et smartphone). Pour le dirigeant, la mise en place des outils Tivoli a eu des impacts significatifs. Ainsi sur le cloud « la gestion de la production/développement/test a réduit le temps d'allocation des ressources de 5 jours à 1 heure ». Après avoir listé les différents avantages de Tivoli, Steve Mills a expliqué qu'il était temps d'entrer dans une autre génération de systèmes, plus intégrés. « Nous avons de plus en plus de connaissances sur le cloud, il est nécessaire d'aboutir à une plus grande automatisation des processus pour garantir une meilleure visibilité et un plus grand contrôle » précise Steve Mills.

Impact de Tivoli au sein d'IBM


Impact des solutions Tivoli au sein d'IBM


Accélérer les déploiements


C'est dans ce cadre que Jamie Thomas, vice-présidente de la stratégie et du développement de Tivoli Software a présenté plusieurs annonces allant dans le sens d'une plus grande intégration au sein de la gamme Smartcloud foundation. Premier élément que nous avions dévoilé hier, Smartcloud desk control qui unifie plusieurs éléments de Tivoli, Service Request Manager, Change and Configuration Management Database, Asset Management for IT et Service Manager Quick Install. Autre annonce, Smartcloud provisonning qui s'inscrit dans la volonté d'automatisation le déploiement des clouds. Ce service optimise et accélère le déploiement de VM quelque soit l'hyperviseur (VMware, KVM et Microsoft). En complément, Smartcloud monitoring surveillera la disponibilité et l'utilisation des services clouds.

[[page]]

La délivrance plus rapide d'applications, de produit est aussi au centre des attentions de la firme d'Armonk avec la solution Continuous delivery, qui repose sur des bonnes pratiques en matière de gestion de cycle de développement des services clouds. Cette offre va intégrer l'expertise de Green Hat, société acquise en janvier 2012, qui donne aux développeurs les moyens de tester les applications sans avoir besoin de configurer physiquement des environnements de tests.

Une meilleure prise en charge du stockage et des terminaux mobiles

Le stockage n'est pas oublié avec deux solutions Tivoli Storage Management Suite qui s'adresse à la partie back-up et restauration des données. Tivoli Virtual Storage Center est un outil de virtualisation et d'administration des ressources de stockage. Ce service va entrer en concurrence avec des outils comme ceux de VMware (VSphere Storage), EMC, HDS ou Netapp. A noter que ce dernier service existe pour l'instant en version expérimentale et qu'IBM n'a pas donné de détail sur les technologies utilisées. Jamie Thomas a indiqué lors d'une table ronde, « nous nous intéressons de très prés aux évolutions du stockage, il est très important que nous soyons présents pour accompagner nos clients qui vont virtualiser leur brique de stockage ou les placer dans le cloud ».

L'offre Tivoli en matière de stockage

Les offres Tivoli en matière de stockage

Cette tentation d'aller vers le cloud public à certains moments entraîne une prise en charge de la notion de cloud hybride. Les outils de management Tivoli vont prendre en compte cette dimension. Interrogé sur l'intégration de standards ouverts en matière de cloud, IBM a indiqué son implication dans le cloud standards customer council, qui regroupe 300 sociétés. Scott Hebner, vice-président marketing de l'activité Tivoli Software, a expliqué « le but de cette  organisation est de donner la parole aux clients et non aux fournisseurs ou aux constructeurs ».  Enfin, la mobilité a été abordée lors de la première journée et IBM a rappelé son offre de gestion des terminaux en incluant maintenant les mobiles (iPhone, iPad, Android, Windows Phone, etc.) ainsi que sa solution de déploiement d'applications mobiles via le service Worklight.

Au final, cette édition 2012 de Pulse confirme que l'infrastructure reste au coeur des grands changements de l'IT, mobilité, analytique, cloud. Son administration peut apporter des améliorations et des accompagnements sur ces différentes transformations.

(...)

(06/03/2012 13:03:33)

AMD lâche ses parts dans les usines GlobalFoundries

AMD abandonne les parts qu'il possédait encore dans la société GlobalFoundries qui rassemble ses anciennes usines de Dresde, New York et Singapour. Le principal concurrent d'Intel se met en ordre de marche pour se consacrer entièrement à la conception de puces. Il avait commencé à s'engager sur cette voie lorsqu'il avait détaché ses activités de fabrication vers GlobalFoundries, à partir de 2009.

AMD se sépare maintenant des 9% de parts (environ) qu'il possédait encore dans sa spin-off et lui verse  425 millions de dollars en numéraire à la suite de la modification de leur accord portant sur la fourniture de wafer. Les usines de fabrication seront désormais entièrement détenues par Advanced Technology Investment Company, entité de la société d'investissement Mubadala Development appartenant au gouvernement d'Abu Dhabi (Emirats Arabes Unis). Initialement, AMD avait conservé GlobalFoundries comme fournisseur exclusif après l'avoir détaché. Le voilà libre de chercher d'autres fabricants de processeurs.

Une collaboration ponctuée d'aléas

Dans un communiqué séparé, GlobalFoundries indique qu'il acquiert les parts d'AMD afin de devenir un fondeur indépendant. Outre les usines qu'il gère aux Etats-Unis, en Allemagne, à Singapour, il en construit actuellement une à Abu Dhabi qui pourrait être opérationnelle dans quelques années. AMD prendra en charge 703 millions de dollars pour le premier trimestre fiscal de 2012 en lien avec le transfert de ses parts dans GlobalFoundries. 

Les relations entre les deux sociétés ont connu des aléas qui ont affecté AMD financièrement. Celui-ci a réduit ses prévisions de chiffre d'affaires sur son troisième trimestre fiscal 2011 à cause d'une livraison limitée de ses puces pour PC liée à des problèmes de fabrication sur le procédé de fabrication 32 nm. Il fait déjà fabriquer des puces pour PC à basse consommation par certains concurrents de GlobalFoundries tels que TSMC (Taiwan Semiconductor Manufacturing). 

AMD va combiner d'autres technologies aux siennes

L'ancienne spin-off ne restera pas fournisseur exclusif pour les puces gravées selon le procédé 28 nm d'AMD, mais elle en produira néanmoins une partie, a précisé par e-mail Drew Prairie, porte-parole du concepteur de puces, à nos confrères d'IDG News Service. « GlobalFoundries a renoncé à l'accord d'exclusivité pour que nous puissions faire fabriquer certains produits APU (accelerated processing unit) en 28 nm chez TSMC pendant une période déterminée », a-t-il ajouté. 

Les dernières puces d'AMD sont gravées en 32 nm, mais les processeurs pour ordinateurs portables et de bureau prévus pour l'année prochaine le seront en 28 nm. Le Californien change aussi de direction sur la conception des processeurs en combinant au sein de ses puces des technologies tierces avec les siennes. Il expliquait récemment qu'il n'excluait pas d'utiliser l'architecture d'ARM. AMD et GlobalFoundries ont défini de nouvelles conditions de prix dans le cadre du contrat modifié de fourniture de wafer.

(...)

(06/03/2012 09:48:02)

Cebit 2012 : Le Brésil et la sécurité en vedette cette année

Le Cebit est inauguré cette année par la chancelière allemande Angela Merkel, la présidente brésilienne Dilma Rousseff et Eric Schmidt, le président exécutif du conseil d'administration de Google. Ce dernier viendra assurément défendre Google+, mis à mal dernièrement par une étude de comScore démontrant que les internautes ne passent en moyenne que trois minutes par mois sur ce réseau social.

De son côté, un autre acteur majeur de l'informatique viendra défendre son principal projet de l'année. Microsoft devrait en effet faire la démonstration de son système d'exploitation Windows 8, librement disponible au téléchargement en version bêta depuis le 29 février.

La sécurité informatique en vedette cette année

Cette édition sera également placée sous le signe de la sécurité, déclinée comme fil rouge à travers l'ensemble du Parc des expositions. De nombreux éditeurs viendront y présenter leurs dernières nouveautés en matière de solutions de sécurité, notamment pour les terminaux mobiles, de plus en plus vulnérables. L'un des autres thèmes abordés au Cebit sera le cloud computing. 

De nombreux événements seront enfin organisés tout au long du salon sur le thème du Brésil et du développement des technologies de l'information et de la communication (TIC) en Amérique du Sud.

Le Cebit, rendez-vous incontournable des technologies de l'information, se tient depuis 1986 à Hanovre, en Allemagne. L'édition 2012 doit rassembler environ 4 200 exposants, venus de 70 pays. Selon ses organisateurs, le salon a rassemblé l'an passé 339 000 visiteurs.

 

(...)

(05/03/2012 14:13:34)

Google Apps : le mécanisme de suppression de domaines toujours désactivé

Depuis le milieu du mois de janvier, les clients des Google Apps ont quelques difficultés à supprimer et à réactiver les domaines dans leurs comptes. Google a en effet désactivé depuis cette date, et de manière inattendue, le mécanisme automatisé pour réaliser ces tâches. Dès lors, les demandes de suppression et d'ajout de domaines se sont accumulées, mettant en difficulté les administrateurs des Apps qui ont du faire face à une série de problèmes divers, y compris l'impossibilité d'accéder aux comptes de messagerie de certains de leurs utilisateurs. Finalement, Google a dû mettre en place une procédure manuelle pour répondre à ces demandes, invitant les administrateurs concernés à déclarer leurs domaines dans un fil de discussion dédié sur le forum officiel Apps. Google les ajoute ensuite à une file d'attente pour les traiter manuellement.

Le 10 janvier, un officiel de Google identifié comme « Ricky » a posté un message sur le fil de discussion du forum, informant que « suite à une question connexe sur le sujet postée la semaine précédente, Google avait temporairement désactivé le mécanisme de suppression de domaines. » Celui-ci ajoutait qu'il faudrait attendre désormais deux semaines avant de pouvoir à nouveau supprimer les domaines et que Google ferait une mise à jour sur le fil dès que le mécanisme serait réactivé. Cependant, aucune mise à jour n'a encore été publiée, et le mécanisme automatisé n'est toujours pas fonctionnel.

Un mois et demi d'indisponibilité

Il y a plusieurs raisons pour lesquelles les administrateurs des Google Apps suppriment les domaines. Souvent, il s'agit pour eux de les réactiver immédiatement comme sous-domaine ou d'en faire l'alias d'un autre domaine de premier niveau. Si le processus est figé pendant des jours ou des semaines, cela peut perturber les échanges de courrier électronique et d'autres fonctions que certains employés utilisent fréquemment avec les Apps.

« Je constate que, dans un premier temps, il était question de mettre la fonction hors ligne pendant « deux semaines ». Or cela fait un mois et demi que la suppression a été désactivée. Est-ce que le problème a été résolu ? L'auto-suppression ne fonctionne toujours pas ? J'essaye de mettre place un compte Google Apps pour l'éducation et je dois vous dire que cette situation, aussi bien l'incapacité de réenregistrer un domaine précédemment supprimé, que l'impossibilité d'obtenir un quelconque soutien, ne me donne guère confiance dans le service des Google Apps, pour communiquer avec mon équipe et mes étudiants », a écrit un utilisateur identifié comme « CMcIlroy» le 27 février.

De multiples fils de discussions sur ce problème

Parallèlement à ce thread principal, de multiples fils de discussion toujours très actifs ont été ouverts dans lesquels les administrateurs des Apps évoquent le problème. Certains utilisateurs font remarquer que Google aurait pu informer les administrateurs des Apps sur la question. Ils sont notamment étonnés de voir que le problème n'a pas encore été ajouté à la liste des « Questions Connues ».

Une porte-parole de Google a déclaré que l'équipe des Apps était « tout à fait consciente des désagréments et qu'elle travaillait activement sur la question, » ajoutant « qu'elle espérait avoir résolu le problème dans quelques jours. »

(...)

< Les 10 documents précédentsLes 10 documents suivants >