Google vérifie les extensions du Web Store de Chrome. Malgré cela, certaines sont utilisées pour la fraude en affiliation et le vol de données.

L'Image du jour

Google vérifie les extensions du Web Store de Chrome. Malgré cela, certaines sont utilisées pour la fraude en affiliation et le vol de données.

Start-up 2014, les nouveaux maîtres de la Silicon Valley

Dernier Dossier

Start-up 2014, les nouveaux maîtres de la Silicon Valley

En juin dernier, nous étions de retour à San Francisco et dans la Silicon Valley avec une dizaine de journalistes européens pour la quinzième édition ...

Restez proche de l'actualité IT

NEWSLETTERS THEMATIQUES

Découvrez nos différentes newsletters adaptées à vos besoins d'actualités IT Pro : Mobilité, Réseaux, Stockages, ...

Abonnez-vous 
FERMER

ESPACE PARTENAIRE

Webcast

FERMER

LMI MARKET

Votre comparateur de prestataires IT : Comparez les devis, Evaluez les prestataires, Trouvez le juste prix!...

Accéder à ce service 

BLOG

Découvrez les contenus exclusifs publiés par les lecteurs du Monde Informatique avec la plateforme LMI Blog...

Accéder à ce service 

COMPARATEUR DE SALAIRE

Partagez votre situation salariale anonymement, consultez les statistiques depuis 2009 et faites vos propres analyses...

Accéder à ce service 

IT TOUR

LMI vous invite à sa Matinée-Débats dans votre région.
Inscrivez-vous

Accéder au site 
FERMER

Flux RSS

Datacenter

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS, Inscrivez-vous

2681 documents trouvés, affichage des résultats 1 à 10.

Les 10 documents suivants >


(19/08/2014 09:33:31)

Interxion acquiert un datacenter à Marseille

Le fournisseur de services de datacenter Interxion va racheter l'implantation marseillaise Netcenter de SFR. L'opération représente un investissement de 45 M€ pour l'acquéreur hollandais qui opère déjà 37 structures de ce type dans 11 pays européens. Cette somme englobe notamment la reprise du terrain et des bâtiments ainsi que la rénovation de la structure et son agrandissement. Portant sur 500 m², la première phase des travaux d'extension débutera au quatrième trimestre 2014. Une deuxième tranche de 500 m² sera ouverte dans le courant du premier trimestre 2015. Ces nouveaux espaces achevés, le datacenter marseillais rebaptisé MRS 1 offrira une surface totale de 5700 m² équipés et 6 MW de puissance électrique.

Un noeud de transit pour les fournisseurs de services réseaux

L'un des atouts du site est qu'il sert actuellement de noeud de transit et de cache à plus de 60 fournisseurs de services réseaux. Il jouit en outre d'un accès au point d'agrégation des huit câbles sous-marins arrivant dans la cité phocéenne. Dans le cadre de la transaction conclue avec SFR, Interxion a obtenu un accès direct et immédiat à la communauté existante de fournisseurs de réseau et de câblo-opérateurs. En outre, SFR va transmettre au groupe hollandais la majorité de l'espace qu'il occupe ou sous-loue dans le data center marseillais. (...)

(14/08/2014 15:26:56)

Cisco va supprimer 6000 postes sur un an

La restructuration engagée par Cisco va le conduire à supprimer 6 000 postes dans les 12 mois pour transférer ses ressources vers ses activités en développement, telles que le cloud, les logiciels et la sécurité. Il ne s'agira donc pas d'une réduction nette de l'effectif, a précisé l'équipementier américain. Néanmoins, il y aura bien des suppressions de postes puisque les catégories de produits qui enregistrent la plus forte croissance, comme les solutions de sécurité, requièrent des compétences spécifiques. Il faut donc faire de la place pour les accueillir, explique Cisco sans détour.

« Si nous n'avons pas le courage de changer, si nous ne menons pas le changement, nous allons nous retrouver à la traîne », a clairement indiqué le CEO John Chambers, lors d'une conférence téléphonique. Cisco compte environ 74 000 collaborateurs. Les réductions vont donc toucher 8% de son effectif total. Les coûts de réorganisation sont évalués à 700 M$ dont la moitié seront engagés sur le trimestre en cours, a précisé le directeur financier Frank Calderoni.

Un chiffre d'affaires annuel en baisse de 3%

Ces annonces ont été faites lors de la communication des résultats financiers annuels du groupe. Sur son dernier trimestre fiscal, Cisco a enregistré une progression de 29% sur ses ventes de logiciels et de 30% sur ses ventes d'équipements pour datacenters, qui comprennent les Unified Computing Systems (UCS). En revanche, ses ventes de routeurs et de commutateurs ont respectivement baissé de 7% et 4%.

Au total, Cisco a réalisé le même chiffre d'affaires que l'an dernier, 12,4 milliards de dollars, sur le 4èmetrimestre de son exercice clos le 26 juillet. Son bénéfice net a baissé par rapport à l'an dernier à 2,2 Md$ (contre 2,3 Md$ sur son 4èmetrimestre fiscal en 2013), mais son bénéfice par action a augmenté de 0,01 $ à 0,43 $.

Sur l'ensemble de son année fiscale, le chiffre d'affaires de Cisco a baissé de 3% par rapport à l'an dernier, à 47,1 milliards de dollars. Son bénéfice net accuse une baisse de 21,3% à 7,9 milliards de dollars. 

(...)

(12/08/2014 17:11:50)

Hot Chips 2014 : AMD pense à personnaliser des puces serveurs ARM

AMD pourrait vouloir personnaliser pour ses clients les puces serveurs 64 bits du Britannique ARM, à l'instar de ce qu'il fait déjà pour les consoles Xbox One et PlayStation 4. C'est ce qu'a indiqué l'un de ses ingénieurs, Sean White, lors d'une présentation sur la conférence Hot Chips à Cupertino (10-12 août). L'objectif serait de répondre à des besoins spécifiques à mesure que le marché évolue et qu'AMD dispose d'une meilleure visibilité sur les modèles d'usage, ce qui lui permettra de modifier les puces suivant les demandes des clients (personnalisation des entrées/sorties et des ports, par exemple).

Pour l'instant, les serveurs à base d'ARM ne sont toujours pas commercialisés. Mais il y a un intérêt croissant pour des processeurs à basse consommation, destinés à des serveurs denses, pour l'hébergement web et les applications cloud. Selon AMD, ses puces équiperont des serveurs d'ici la fin de l'année.

Mémoire ECC pour la puce Seattle

Sur Hot Chips, AMD a également donné des détails techniques sur son premier processeur 64 bits ARM, baptisé Opteron A1100, nom de code Seattle. Il a déjà commencé à les livrer pour test aux fabricants de serveurs. Les premières machines devraient sortir à la fin de l'année ou au début de l'année prochaine. L'un des premiers à en être équipé pourrait être le propre SeaMicro d'AMD.

La puce serveur Seattle présente deux canaux mémoire DDR3 et DDR4, moitié moins que sur les processeurs AMD x86 pour serveurs. Elle aura jusqu'à 4 Mo de mémoire cache de niveau 2 avec deux coeurs partageant 1 Mo. Un total de 8 Mo de cache de niveau 3 est accessible par l'ensemble des huit coeurs. Ce qui est nouveau pour les processeurs ARM, c'est la mémoire ECC (à correction d'erreurs) très importante pour des puces destinées à des serveurs. Les processeurs ARM 32 bits n'en ont pas.

Jusqu'à 128 Go de mémoire par CPU

Chaque CPU Seattle supportera jusqu'à 128 Go de mémoire, totalisant jusqu'à 1 To pour 8 coeurs sur l'Opteron A1100 (la puce ARM 32 bits ne supporte que 4 Go). Sur la puce, on trouve aussi des moteurs pour chiffrer et déchiffrer, compresser et décompresser les données. Un moteur de sécurité TrustZone établit des zones d'exécution sécurisée pour exécuter du code sans mettre en péril l'intégrité du système.

Seattle supporte les différentes interfaces courantes : Ethernet 10-Gigabit, PCI-Express, interface SATA pour le stockage. AMD a déjà commencé à livrer à certains clients (qui veulent écrire et tester des applications) une plateforme de développement 64 bits pouvant accueillir des puces x86 et ARM.

La semaine dernière, Dell s'inquiétait du retard pris dans la livraison des serveurs à base d'ARM 64 bits, estimant que cela risquait d'affecter leur adoption sur le marché, alors que d'autres puces basse consommation se préparent. 

(...)

(11/08/2014 17:20:52)

Un coffre-fort virtuel chez Oracle pour les clés de chiffrement

Oracle vient d'annoncer Key Vault, une appliance logicielle conçue pour permettre aux entreprises de gérer de façon sécurisée les clés de chiffrement et les certificats dans leur datacenter. Ce référentiel permet de conserver les copies de milliers ou centaines de milliers de clés et certificats utilisés pour protéger les données et les opérations. Les JavaKeyStores, fichiers SSH et certificats SSL sont souvent distribués à travers les serveurs et groupes de serveurs qui utilisent des mécanismes de synchronisation et de backup, souligne Oracle. L'objectif est de les gérer de façon centralisée et de permettre aux équipements et terminaux qui les utilisent d'y accéder très facilement, explique Vipin Samar, vice-président, qui supervise chez Oracle les technologies liées à la sécurité des bases de données.

Key Vault s'adresse aux entreprises et administrations qui doivent respecter des contraintes réglementaires pour la gestion de ces clés : fréquence de modification, fréquence d'accès, authentification des utilisateurs, etc.  L'application de coffre-fort doit pouvoir répondre à ces questions. De nombreuses réglementations requièrent des audits prouvant que les clés sont régulièrement changées, correctement détruites et utilisées exclusivement par les entités autorisées, rappelle Oracle.

Conforme au standard OASIS KMIP

L'appliance fonctionne sur un serveur x86 sous Linux avec la base de données d'Oracle dont elle utilise les fonctions de sécurité : audit, contrôle d'accès, chiffrement. Les mises à jour et les correctifs seront testés ensemble et livrés tous les trois mois. Le coffre-fort peut stocker les clés pour Secure Shell, SSL, Kerberos keytabs, fichiers Oracle Wallet, Java KeyStores et autres certificats. Il gère les clés en s'appuyant sur le standard OASIS KMIP (Key management interoperability protocol).

Oracle n'est pas le seul à proposer de solutions pour centraliser les clés de chiffrement. On en trouve aussi chez Symantec, WinMagic et SafeNet (qui vient de se faire racheter par Gemalto). Key Vault fonctionne aussi avec des applications qui n'ont pas été développées par Oracle.

(...)

(11/08/2014 12:34:39)

Atos a réussi son OPA sur Bull

En mai dernier, la SSII Atos avait lancé une offre publique d'achat sur le groupe Bull avec l'intention de devenir le premier acteur européen du cloud et de peser aussi au niveau mondial dans le domaine de la sécurité et du big data. La SSII vient d'annoncer le « succès » de cette OPA qui s'est déroulée du 27 juin au 31 juillet 2014. Selon les résultats publiés par l'Autorité des marchés financiers (AMF), Atos va détenir au 18 août 84,25% du capital et des droits de vote sur Bull, ainsi que 18,41% des Oceanes en circulation. L'offre sera de nouveau ouverte aux mêmes prix (*)  pour 10 jours de bourse selon un calendrier que va publier l'AMF.

En mai, Thierry Breton, PDG d'Atos et Philippe Vannier, PDG de Bull, avaient tenu une conférence de presse sur la stratégie envisagée et expliqué que Bull conserverait sa marque sur les solutions liées à la sécurité et aux big data. Par ce rapprochement, les dirigeants prévoyaient de réaliser 80 millions d'euros de synergie sur les coûts en deux ans. Ils avaient également précisé qu'il n'y aurait pas de plan social en France, en expliquant que les restructurations s'inscriraient dans leur « taux d'attrition » de 10%.

Quelques semaines plus tôt, en avril, Atos avait fait, sans succès, une première offre à une autre SSII française, Steria, qui venait d'annoncer son rapprochement avec Sopra. La semaine dernière, Sopra a annoncé avoir réussi son offre publique d'échange (OPE) sur Steria

(*) 4,90 € par action et 5,55 € par Oceane.

(...)

(08/08/2014 18:59:55)

Recap IT : 1,2 Md d'identifiants volés, Malwares sur clés USB, La France cyber-espionnée

Les questions de sécurité se sont retrouvées au coeur de l'actualité cette semaine avec la révélation qu'une base de 1,2 milliard de noms d'utilisateurs et de mots de passe avait été constituée par un groupe de pirates en Russie. L'information a été communiquée par la société américaine Hold Security qui a indiqué que les identifiants avaient été récupérés dans tous les coins du web sur 420 000 sites. Ils devraient être, pour le moins, utilisés pour envoyer des spams. C'est aussi cette semaine que s'est tenue la conférence de sécurité Black Hat, à Las Vegas. Cisco y a présenté un rapport prouvant que l'arrestation du créateur de Blackhole (« kit d'exploit ») n'avait pas supprimé les menaces. Sur la Black Hat, des chercheurs berlinois ont aussi montré comment des clés USB pouvaient être reprogrammées pour installer un malware sur l'ordinateur hôte, ce dernier le transmettant ensuite à la clé suivante.

Toujours dans le domaine de la sécurité, Kaspersky et Symantec sont revenus sur la campagne de cyber-espionnage Epic Turla qui cible les ambassades et institutions gouvernementales, tout particulièrement en France. Des chercheurs de Symantec ont également identifié un logiciel conçu pour extorquer de l'argent aux utilisateurs et qui fonctionne avec un simple fichier batch. Cisco, Oracle et OpenSSL ont livré des correctifs de sécurité. En Australie, un utilisateur de PayPal a par ailleurs alerté sur la vulnérabilité de l'authentification à deux niveaux du système de paiement, aisément contournable dès lors qu'on relie ses comptes eBay et PayPal. Enfin, si les études se multiplient pour prédire un bel avenir à l'Internet des objets, notamment en entreprise, les exemples se multiplient pour montrer les risques de fuite de données personnelles lorsque l'on utilise ces objets connectés.

Facebook rachète PrivateCore, Oodrive acquiert Active Circle

Sur le terrain des équipements connectés, SAP, Toyota et VeriFone ont co-développé une application pour guider les automobilistes vers la station-service de leur choix et plusieurs annonces de smartwatches ont été faites : HP prépare une montre avec le designer Michael Bastian et Timex va lancer une montre pour sportifs qui enverra des messages sans être reliée à un smartphone. Sur le marché des terminaux mobiles, Microsoft a attaqué Samsung pour ne plus respecter leur accord de reversement de royalties liés aux smartphones Android. En revanche, le fabricant coréen a décidé d'arrêter les querelles de violation de brevets avec Apple sur les terminaux mobiles, tout au moins pour leurs différends situés hors Etats-Unis.

Sur le théâtre des fusions/acquisitions, Sprint a renoncé à racheter T-Mobile US, laissant Free seul à faire une proposition, jugée trop peu élevée au goût de Deutsche Telekom, maison mère de T-Mobile US. Sprint en a profité pour mettre à sa tête Marcello Claure, fondateur de BrightStor. Par ailleurs, Facebook a acquis PrivateCore pour renforcer la sécurité de ses serveurs et Google a racheté l'app de messagerie Emu. En France, le groupe Spie a annoncé l'acquisition de deux intégrateurs suisses, Connectis et Softix. De son côté, l'éditeur Oodrive, spécialisé dans le stockage et la signature numérique, a racheté sans bruit son compatriote Active Circle qui développe depuis plus de dix ans des solutions métiers de stockage hiérarchique. 

En France toujours, un décret publié le 1er août a unifié le système d'information de l'Etat sous la responsabilité du Premier Ministre. Sopra a réussi son offre publique d'échange sur Steria en vue de son rachat programmé.

Bientôt des drones pour voir à travers les murs ?

Au chapitre des performances techniques, une université danoise a annoncé avoir transféré 43 Tbps sur une seule fibre. Une université californienne se penche de son côté sur l'utilisation du WiFi pour « voir » les objets se trouvant derrière des murs de béton. L'équipe regarde comment cette technologie pourrait être exploitée avec des drones commerciaux. BrainOS, lui, cherche à faire exécuter aux robots des tâches spécifiques en passant par l'apprentissage plutôt que par une programmation complexe.

Chez les éditeurs Open Source, MongoDB a changé de CEO et recruté un vétéran d'Oracle qui détient 40 brevets appliqués aux bases de données. Pivotal propose avec son App Suite une pile Java allégée pour les applications web. Sur le terrain des processeurs, Dell pense que le retard sur les puces serveur ARM va affecter leur adoption. Quant à AMD, il affirme que sa puce graphique FirePro S9150 surpasse en performance la ligne Tesla de Nvidia.

Une action collective contre Facebook en Autriche

A l'échelle européenne, un utilisateur autrichien de Facebook, mécontents de la politique de confidentialité du réseau social, a lancé une action collective contre la filiale irlandaise du groupe. Il a réuni derrière lui plus de 25 000 participants (limite qu'il s'était fixée), mais le tribunal de commerce autrichien, se déclare incompétent pour traiter ce dossier qui, selon lui, doit être pris en charge par un tribunal civil.

Dans ce monde hyper-social, certains utilisateurs cherchent un peu d'intimité et quelques fournisseurs semblent commencer à le comprendre. A moins qu'il ne s'agisse d'une autre façon d'aborder la question. 

(...)

(07/08/2014 12:42:54)

Puces graphiques : AMD affirme que son GPU FirePro S9150 surpasse la Tesla de Nvidia

La lutte entre AMD et Nvidia sur le terrain des puces graphiques pour supercalculateurs redouble d'intensité. C'est ainsi que AMD revendique la première place pour sa puce FirePro S9150  destinée aux serveurs. Selon lui, ses performances sont supérieures à celles de la plus rapide des puces Tesla de Nvidia. Dans le domaine du supercomputing, les GPU sont au centre de toutes les attentions car ils permettent de gagner significativement en performance. Associées à des CPU, ils accélèrent les calculs mathématiques et les simulations scientifiques. Titan, le second supercalculateur le plus rapide du monde, tourne avec 18 688 GPU Tesla K20X de Nvidia.

Le S9150 d'AMD offre 2,53 téraflops de performances de pic en double précision, alors que la puce haut de gamme Tesla K40 de Nvidia atteint 1,43 téraflops. Quant au pic de performance en simple précision du FirePro S9150, il est de 5,07 téraflops, soit légèrement au-dessus du Tesla K40 de Nvidia qui affiche 4,29 téraflops. La performance en double précision compte davantage pour les supercalculateurs, car elle permet un calcul en virgule flottante plus précis. Cependant, l'avance prise par AMD pourrait être de courte durée. En effet, dans les mois qui viennent, Nvidia devrait faire passer ses GPU Tesla à la nouvelle architecture graphique Maxwell, laquelle devrait contribuer à augmenter ses capacités de pointe et dépasser celles offertes actuellement par la puce K40.

Les GPU d'AMD encore peu utilisés pour le HPC

Les produits FirePro d'AMD sont utilisés dans quelques serveurs d'entreprises comme Dell, mais la puce n'a pas encore de grandes références dans le domaine des supercalculateurs. Selon le classement des 500 supercalculateurs les plus rapides du monde réalisé par Top500, cinq systèmes parmi les 20 premiers utilisent le GPU de Nvidia. Comparativement, la puce FirePro d'AMD apparaît pour la première fois au 70e rang, avec le supercalculateur Sanam de l'Arabie Saoudite. Les GPU pour supercalculateurs ne sont pas aussi rapides que les puces graphiques utilisées dans les ordinateurs de bureau. Les serveurs haute performance intègrent habituellement de nombreux GPU, et les caractéristiques du hardware doivent s'inscrire dans les contraintes de performance et de consommation d'énergie imposées par les datacenters. Les puces graphiques pour ordinateurs desktop peuvent être overclockées (augmentation de la fréquence d'horloge) et refroidies avec un liquide de refroidissement, ce que ne permettent pas facilement les serveurs.

La puce FirePro S9150 compte 2816 coeurs, intègre 16 Go de mémoire GDDR5 et consomme 235 watts. Les coeurs sont basés sur la même technologie graphique - Graphics Core Next - utilisée dans la Xbox One de Microsoft et la PlayStation 4 de Sony. Les programmes mathématiques et scientifiques peuvent être codés pour travailler en parallèle sur le CPU et le GPU avec des outils programmation parallèle Open Source OpenCL. Nvidia supporte le protocole OpenCL et le fondeur et propose son propre framework de programmation parallèle CUDA. AMD a également annoncé un GPU FirePro S9050 un peu moins rapide. La puce graphique de la même famille compte 1792 coeurs processeurs, intègre 12 Go de mémoire GDDR5 et consomme 225 watts. Ces deux versions seront livrées ce trimestre et seront disponibles via le partenaire Sapphire Technologies qui est chargé de la distribution. Des fabricants de serveurs comme Supermicro, Asustek, Tyan proposeront aussi des produits intégrant la puce S9150 d'AMD.

(...)

(06/08/2014 13:22:27)

Serveurs ARM : le retard sur les puces va affecter l'adoption, selon Dell

Forrest Norrod, directeur général des serveurs chez Dell, estime que le retard dans la livraison de puces serveurs ARM et donc le lancement de produits alternatifs a entamé l'intérêt pour les serveurs ARM. Le constructeur propose déjà en test des serveurs basés sur ces processeurs, mais le principal avantage de ceux-ci - à savoir un gain relatif en consommation d'énergie - n'est plus aussi déterminant, dans la mesure où les principaux concurrents de ARM sont en train de le rattraper. En conséquence, les clients risquent d'être moins enclins à lâcher l'architecture x86 pour investir ailleurs. « Je constate clairement que l'écosystème se développe plus lentement que prévu », a déclaré Forrest Norrod.

Plusieurs entreprises avaient manifesté leur intérêt pour développer et fabriquer des serveurs basés sur le processeur conçu par ARM, lequel ne produit pas lui-même les composants mais vend ses designs sous licence. Mais pour l'instant, les processeurs 64-bits ARM pour serveurs ne sont pas encore commercialisés, même si plusieurs annonces ont déjà été faites, par exemple autour des X-Gene d'Applied Micro.

Intel et AMD ont étendu leurs lignes basse consommation

Les puces ARM sont principalement utilisées dans les smartphones et les tablettes, et du fait de leur faible consommation en énergie, elles sont apparues comme une alternative possible aux puces serveurs x86 d'Intel, majoritaires dans les datacenters. Les serveurs ARM ont été envisagés pour prendre en charge l'hébergement Web et certains services cloud. Mais des fabricants de puces comme Applied Micro et Advanced Micro Devices (AMD) ont retardé leur livraison de puces ARM, repoussant d'autant la sortie des serveurs.

Si Dell vend des serveurs x86, il propose aussi à ses clients des prototypes de serveurs ARM pour test et pour le développement d'applications. De la même façon, Hewlett-Packard avait fait part de son intention d'utiliser des processeurs ARM dans son serveur « dense » Moonshot actuellement équipé de puces x86, mais le constructeur n'a encore communiqué aucune date de sortie pour la version ARM. De leurs côtés, « Intel, et à un moindre degré, AMD, ont étendu leurs lignes de processeurs basse consommation pour serveurs », a déclaré le responsable serveurs de Dell, ajoutant que « leurs produits vont sûrement entraver l'adoption de serveurs ARM ».

Des questions autour des licences associées

Il semble que le fondeur britannique a laissé passer sa chance et que l'intérêt pour les serveurs ARM n'est plus aussi important qu'auparavant, selon Forrest Norrod. La plupart des entreprises ont des serveurs x86. Savoir si les entreprises sont toujours prêtes à investir pour faire cohabiter dans leurs infrastructures des architectures serveurs x86 et ARM reste une question ouverte. Pour basculer vers des serveurs à base d'ARM, elles devront non seulement investir dans de nouveaux serveurs et dans de nouveaux composants, mais elles devront aussi porter leurs applications sur la nouvelle architecture. Si le coût total de ces acquisitions et ces dépenses ne sont pas justifiées, alors, elles pourraient abandonner l'alternative des serveurs ARM », a ajouté Forrest Norrod.

De plus « des questions se posent déjà autour des licences associées à l'adoption des serveurs ARM, dans la mesure où les entreprises devront s'acquitter d'une redevance par logiciel et par coeur », a déclaré Forrest Norrod. Dans les grosses installations, les serveurs ARM auront besoin de beaucoup de coeurs processeurs basse consommation, et ce, même pour traiter des tâches légères comme la recherche et les messages des réseaux sociaux. 

Moins de fabricants de puces serveurs ARM

Aujourd'hui, la majorité des développements logiciels concerne les puces x86. ARM essaie bien de faire progresser l'écosystème logiciel de ses processeurs en soutenant des groupes de développeurs comme Linaro et à travers des entreprises comme Red Hat. « Mais cela n'a aucun impact sur le fait que l'éventail des fabricants de puces serveurs ARM se réduit », a déclaré Forrest Norrod. L'an dernier, Calxeda, l'un des premiers constructeurs à s'être lancé dans les serveurs ARM, a arrêté tous ses développements et plus tôt cette année, Nvidia a également annulé ses projets de puce serveur, de même que Samsung. Son projet avait été révélé avec enthousiasme en juin dernier par le site SemiAccurate.

« Finalement, l'adoption de serveurs ARM pourrait se limiter à un petit groupe d'acheteurs de serveurs hyperscale, mais les fabricants de puces x86 s'intéressent aussi activement à ce type de clients », a déclaré le responsable serveurs. « En ce qui concerne Dell, nous ne proposerons des serveurs ARM que si nous identifions une opportunité commerciale viable », a indiqué Forrest Norrod. « Nous continuons à suivre avec attention le développement de la plateforme. Mais nous modérerons l'intérêt de nos clients. Enfin, nous allons continuer à soutenir l'écosystème ARM... pour être prêt en cas d'adoption par le client final », a conclu le directeur général de Dell.

(...)

(05/08/2014 13:05:23)

Une université danoise transfère 43 Tbps sur une seule fibre

En utilisant une fibre optique modifiée, l'Université Technique du Danemark a établi un nouveau record de transmission de données sur un canal unique à 43 térabits par seconde. C'est le laboratoire High-Speed Optical Communications (HSOC) du département d'ingénierie photonique de l'université qui a réalisé cet exploit, battant ainsi de 11Tbps l'ancien record détenu jusque-là par l'Institut de technologie de Karlsruhe, en Allemagne.

Il est nécessaire d'accélérer les réseaux pour faire face à l'augmentation du trafic des données sur les nouveaux réseaux cellulaires, à l'usage de plus en plus répandu du WiFi, à la dépendance croissante vis à vis des services cloud et à une demande en flux vidéo toujours plus grande. Pour répondre à cette demande, les réseaux métropolitains et les réseaux centraux qui relient les villes, les pays et les continents doivent être modernisés. Ainsi, selon le fournisseur d'équipements réseaux Alcatel-Lucent, d'ici fin 2017, le trafic total des réseaux métropolitains devrait croître de 560 %.


Un nouveau type de fibre développé par NTT

Aujourd'hui, la plupart des coeurs de réseaux utilisent la technologie de multiplexage par répartition en longueur d'onde ou DWDM (Dense Wavelength Division Multiplexing). Celle-ci permet d'augmenter la capacité en utilisant différentes longueurs d'ondes pour transmettre des données simultanément sur une même fibre optique. L'université danoise a voulu démontrer qu'il était possible de faire passer d'énormes quantités de données sur une seule fibre en utilisant un seul canal ou laser. De plus, l'usage d'un seul canal consomme beaucoup moins d'énergie, un facteur que les fournisseurs devront prendre en considération quand ils développeront les réseaux de prochaine génération, comme le fait remarquer le groupe de recherche danois.


Mais le laboratoire High-Speed Optical Communications doit principalement ce record à un nouveau type de fibre développé par l'opérateur japonais NTT. Celle-ci est composée de sept fils de verre ou noyaux contrairement aux fibres actuelles qui ne contiennent qu'un seul fil. Cela permet aux opérateurs de transférer plus de données sans avoir à augmenter la taille de la fibre. L'université n'est pas la seule à avoir accompli un record dans ce domaine. La semaine dernière, Alcatel-Lucent a annoncé qu'il avait réussi à faire passer des données à la vitesse de 7,2 Tbps sur une seule paire de fibres via le câble sous-marin Apollo Sud existant, qui relie la France aux Etats-Unis. « C'est neuf fois plus que la vitesse initiale du réseau existant », a indiqué l'équipementier. Le système a utilisé 80 canaux de 100 Gbps chacun pour parcourir une distance de plus de 6 500 kilomètres.

(...)

(01/08/2014 09:57:18)

Externalisation : La France sur la 2e marche du podium en Europe

Selon le dernier ISG Outsourcing Index (qui ne comptabilise que les contrats supérieurs à 4M€), le marché français de l'externalisation a connu au premier semestre 2014 les meilleures performances de son histoire sur six mois. La valeur annuelle des contrats signés entre janvier et juin s'élève à 930M€, soit 272% de plus qu'il y a un an (250 M€). Le marché a notamment profité de l'adoption massive des dernières innovations en termes de SaaS et de solutions cloud. Le cabinet d'études met également en évidence la signature de très gros contrats aux valeurs trois fois supérieures à ce qui avait pu se faire à la même période l'an passé. L'Hexagone a représenté 18,3% du marché de l'externalisation dans la région EMEA au premier semestre. En valeur et en volume, il est le deuxième, juste derrière le Royaume-Uni qui a totalisé 1,4Md€ en contrats.

Tiré vers le haut par ces bonnes performances, le marché EMEA se porte également très bien. Il a progressé de 34% en valeur d'une année sur l'autre pour s'établir à 5Md€ de contrats signés. Leur nombre a pour sa part progressé de 25%. Les secteurs les plus friands de l'externalisation ont été ceux de l'industrie manufacturière, des services financiers et des transports. À eux trois, ils ont représenté la moitié de la valeur de contrats signés en EMEA au premier semestre (3,3 Md€).

L'externalisation d'infrastructures explose

L'externalisation des systèmes informatiques a progressé de 46% en valeur d'une année sur l'autre. Elle a représenté 4,1Md€ au premier semestre 2014. Cette croissance a été tiré par les contrats d'externalisation des infrastructures dont la valeur a été multipliée par deux pour représenter 2,05Md€. L'externalisation des applications de développement et de la maintenance est restée stable à 1,05Md€.

Du côté des processus métiers, la valeur des contrats signés est en revanche en retrait de 18% à 0,9Md€ au premier semestre. La progression de l'externalisation des processus de management (0,34Md$) n'a pas suffit à compenser la baisse dans le domaine de la gestion industrielle dont la valeur des contrats a quasiment été divisée par trois.

Atos et Cap dans le top 10

Chez les fournisseurs de services d'externalisation, les principales entreprises françaises font bonne figure en EMEA. Atos est ainsi le deuxième dans la région tandis que Capgemini s'est installé à la cinquième place. D'après ISG, le marché est dominé par la firme irlandaise Accenture. Dans le top 10, figurent également Balfour Beatty, BT, CSC, T-Systems, HP, IBM et TCS. (...)

Les 10 documents suivants >


Publicité
Publicité
Publicité