<span>Des fuites récentes offrent un aperçu du menu Démarrer de Windows 9 programmé pour 2015.</span>

L'Image du jour

Des fuites récentes offrent un aperçu du menu Démarrer de Windows 9 programmé pour 2015.

Le cloud tient-il toutes ses promesses ?

Dernier Dossier

Le cloud tient-il toutes ses promesses ?

A l'occasion de sa conférence annuelle Amazon Web Services Summit 2014 à Paris, le géant du cloud avait confirmé que les entreprises françaises, princ...

Restez proche de l'actualité IT

NEWSLETTERS THEMATIQUES

Découvrez nos différentes newsletters adaptées à vos besoins d'actualités IT Pro : Mobilité, Réseaux, Stockages, ...

Abonnez-vous 
FERMER

ESPACE PARTENAIRE

Webcast

FERMER

LMI MARKET

Votre comparateur de prestataires IT : Comparez les devis, Evaluez les prestataires, Trouvez le juste prix!...

Accéder à ce service 

BLOG

Découvrez les contenus exclusifs publiés par les lecteurs du Monde Informatique avec la plateforme LMI Blog...

Accéder à ce service 

COMPARATEUR DE SALAIRE

Partagez votre situation salariale anonymement, consultez les statistiques depuis 2009 et faites vos propres analyses...

Accéder à ce service 

IT TOUR

LMI vous invite à sa Matinée-Débats dans votre région.
Inscrivez-vous

Accéder au site 
FERMER

Flux RSS

Datacenter

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS, Inscrivez-vous

2664 documents trouvés, affichage des résultats 1 à 10.

Les 10 documents suivants >


(21/07/2014 18:32:05)

Comment HDS place ses atouts dans les systèmes convergés

Avec 4 milliards de dollars de chiffre d'affaires au compteur pour 2013, HDS (Hitachi Data Systems), filiale du géant japonais Hitachi, est loin de faire jeu égal financièrement parlant avec les poids-lourds du secteur du stockage comme HP ou encore IBM. Pourtant, cela ne l'empêche de réaliser de beaux coups dans le domaine des systèmes convergés (Converged Systems), devenu en quelques années le Graal du secteur.

Face aux offres d'infrastructures convergentes de la concurrence, comme celles issues de la joint-venture VCE (Virtual Computing Environnement) emmenée par EMC, Cisco et VMware participent, le japonais a réussi à tirer son épingle du jeu. Son secret ? Avoir proposé dès le départ des configurations de son offre UCP (Unified Compute Platform) optimisées pour une grande variété d'applications allant de la base de données (SAP Hana, Oracle DB et SQL Server), à la messagerie et à la gestion de contenu collaborative (Microsoft Exchange et SharePoint) en passant par la virtualisation serveur (VMware vSphere).

SAP Hana commence à prendre

Une réussite qui a cependant pris un peu de temps avant de s'avérer payante, notamment pour ce qui concerne Hitachi UCP pour Hana, la base de données en mémoire de SAP. « La bascule des systèmes de production SAP Businesss Warehouse et d'ERP Business Suite vers Hana a demandé un peu de temps, mais on sent aujourd'hui que le succès commercial démarre pour nos gammes d'appliances certifiées », explique Michel Alliel, directeur marketing produits & solutions chez Hitachi Data Systems.

Parmi les clients qui ont mené cette migration, on trouve notamment en Europe le spécialiste en commerce de détail Spar, avec la solution UCP pour Hana comprenant deux plateformes de stockage VSP (Virtual Storage Platform) et deux serveurs d'entreprise Compute Blade. Mais également Adidas qui a aussi mené un projet de bascule de ses flux analytiques points de ventes vers la base de données en mémoire SAP installée sur l'appliance HDS. A signaler également Sagem, qui a dernièrement adopté la base de données in-memory de SAP montée sur une appliance Hitachi dans le cadre de son projet de migration d'environnement 3 tiers sous SAP BW 7.0 et Oracle 10.2 vers Hana.

OpenStack au coeur de la stratégie cloud

Mais il n'y a pas que SAP dans la vie. Des projets Hitachi UCP taillés pour Oracle 12c ont également été menés, avec pour objectif de réduire le coût en licences tout en gardant un niveau identique de performances mais avec deux fois moins de ressources en termes de coeurs processeurs. Concernant la solution convergente pour Microsoft Exchange, en France, un opérateur de cloud dont l'identité a été gardée secrète par Hitachi, recourt à son offre pour gérer plus de 100 000 BAL. Mais le succès est relatif pour d'autres configurations. « UCP pour SQL Server rencontre un succès marginal pour le moment comparé aux offres pour Oracle DB et surtout SAP Hana », fait savoir Michel Alliel.

Hitachi a également dans sa manche d'autres atouts. A commencer par son offre UCP pour Hadoop, reposant sur un serveur de 512 Go de mémoire, une configuration système 12/24 coeurs, 38 To de stockage par rack auquel vient se greffer un gestionnaire de cluster . « Nous répondons à la tendance qui est de proposer une infrastructure convergente universelle reposant sur une blade faisant tourner OpenStack au-dessus, une machine virtuelle Hadoop, un serveur flash et de l'analytics, en l'occurrence fournit par Hitachi », poursuit Michel Alliel. Hitachi qui contribue par ailleurs activement à de nombreux projets OpenStack dont en particulier Cinder (stockage bloc), Swift (Content Store/stockage objet)) et Nova (Compute). 

(...)

(21/07/2014 16:59:54)

Un fonds vautour veut bouter VMware hors d'EMC

Toujours à l'affût de la bonne opportunité, le fonds d'investissement Elliott Management a pris une participation de plus d'un milliard de dollars dans EMC afin de pousser le géant du stockage à se restructurer, notamment en se séparer de sa pépite VMware. Cet investissement, réalisé en catimini, représente environ 2% des actions de la compagnie (55,24 milliards de dollars) basée à Hopkinton dans le Massachusetts. Fondé en 1977 par Paul Singer, Elliott Management, dont le siège est à New York, n'est pas inconnue dans le monde IT, puisqu'il a déjà pris des participations dans BMC Software, Compuware, Novell, ou encore Telecom Italia.

Avec cette participation, Elliott Management, qui vient d'informer le groupe de son investissement, devient le cinquième actionnaire d'EMC et entend rencontrer très bientôt le CEO de la firme, Joe Tucci, pour préciser ses intentions. Elliott Management compte bien faire valeur que l'action d'EMC est sous-cotée (28$ aujourd'hui), et qu'elle bénéficierait d'un coup de pouce important avec la séparation de VMware. Après une bataille pour rachat de la firme en 2004 (Microsoft était aussi très intéressé), EMC détient aujourd'hui de 80% de VMware, qui est cotée en bourse (93$ l'action ce jour). Aujourd'hui, EMC regroupe trois entités : le stockage avec EMC II (Information Infrastructure) pilotée par Dave Goulden, la virtualisation avec VMware dirigée par Pat Gelsinger et enfin le développement et le big data avec Pivotal Systems cornaqué par Paul Maritz.

Cette dernière est d'ailleurs une simple spin-off d'EMC avec certains actifs de VMware et le soutien financier de General Electric. En gros toutes les business units (GreenPlum, Cloud Foundry et vFabric), qui avaient du mal à décoller et nuisaient à la cohérence de leur maison mère. C'est cette stratégie de fédération qui est aujourd'hui remise en cause par Eliott Management qui entend recentrer EMC sur le stockage et dégager une belle plus-value avec la cession de VMware. Cette dernière est aujourd'hui valorisé à 41 milliards de dollars, soit 75% de la capitalisation boursière d'EMC.

Si EMC acceptait de se séparer de VMware, ce qui n'est encore à l'ordre du jour, les acheteurs potentiels ne sont pas très nombreux selon les analystes qui glissent toutefois les noms de Cisco, HP ou encore Oracle. L'été dernier, c'est les raids de Carl Icahnn sur Dell et ensuite Apple qui avaient agité les gazettes.

(...)

(21/07/2014 11:58:16)

Cisco et Microsoft étendent leur partenariat datacenter et cloud

La semaine dernière, Cisco a élargi son partenariat commercial avec Microsoft pour la vente de produits intégrés. Il vient renforcer l'accord conclu il y a 15 mois par les deux entreprises pour combiner leurs offres cloud respectives Cisco Unified Data Center et Microsoft Fast Track 3.0. L'accord inclut désormais les ventes, le marketing et les ressources d'ingénierie, l'objectif de Cisco et de Microsoft étant d'aligner et de renforcer l'intégration de leurs produits et de leurs opérations sur les marchés du cloud et des datacenter. L'extension de contrat comprendra également les switches Unified Computing System de Cisco, le logiciel Cloud OS de Microsoft, plus Windows Server, System Center, SQL Server et Azure.

Microsoft est un gros client de Cisco. En taille, Microsoft est le second plus gros hébergeur de serveurs, et Cisco est, avec Arista, l'un des deux fournisseurs de commutateurs tête-de-rack (ToR) à équiper les datacenters de la firme de Redmond, selon le Dell'Oro Group. Si bien que, dans les centres de calcul, ils pourront être en phase, plus qu'en communications unifiées. La durée de l'accord commercial a été fixée à trois ans. Cisco et Microsoft vont harmoniser leurs programmes d'encouragement à l'égard de leurs partenaires pour partager leurs canaux de ventes, et leurs équipes vont collaborer pour développer les marchés du data center et du cloud.

Les deux entreprises ont précisé qu'elles prendront certaines mesures. Par exemple, elles feront migrer les clients Windows 2003 vers Windows 2012 R2 sur la plate-forme Cisco UCS. Pendant la première année, les entreprises se concentreront essentiellement sur six pays - les Etats-Unis, le Canada, le Royaume-Uni, l'Allemagne, la France et l'Australie - avant d'aller plus loin. Cisco va également ajouter les produits cloud de Microsoft à NetApp FlexPod et EMC VSPEX et InterCloud Fabric sera intégré aux produits cloud de Microsoft dans les futures versions.

(...)

(17/07/2014 14:14:22)

Fujitsu conçoit un superordinateur allégé avec moins de switchs

Pour son dernier super-computer, Fujitsu a décidé de regrouper des supercalculateurs en cluster afin de réduire le nombre de commutateurs réseau de 40 % sans perdre en performance. Le système repose à la fois sur un nouvel algorithme de communications qui permet de contrôler plus efficacement la circulation des données, mais aussi sur une topologie réseau multicouche à maillage intégral. À la différence de la topologie réseau « fat tree » à trois couches et de sa structure arborescente, la topologie à maillage intégral est plus efficace dans le sens où elle permet d'éliminer une couche de commutateurs.

Par ailleurs, la planification des transferts de données évite les collisions sur les trajets dans la mesure où chaque serveur communique avec tous les autres et réciproquement. Un système de superordinateurs en cluster composé de 6 000 serveurs aurait besoin de centaines ou de milliers de commutateurs réseau et il consommerait 20 % des besoins en électricité du système. Appliquée à un système de plusieurs milliers d'unités, l'approche de Fujitsu permettrait de réduire de 40% le nombre de commutateurs tout en maintenant le niveau de performance d'un système classique. « Par conséquent, il est possible de faire des économies sur toute la chaîne, aussi bien en nombre de composants utilisés, qu'en consommation d'énergie, ou en espace et en maintenance », a écrit un porte-parole de Fujitsu dans un courriel.

Selon Fujitsu, « cette technologie pourrait favoriser l'adoption de supercalculateurs dans des domaines comme l'analyse des tremblements de terre, la météorologie ou la recherche pharmaceutique ». Les supercalculateurs en cluster ont déjà été utilisés dans des secteurs qui vont de l'industrie du smartphone à celle de l'automobile. Fujitsu Laboratories devrait présenter sa technologie un peu plus tard ce mois-ci lors du Summer United Workshops on Parallel, Distributed and Cooperative Processing 2014 (SWoPP 2014) qui se tiendra dans la ville japonaise de Niigata City. Le Lab de Fujitsu prévoit de mettre cette en approche en pratique en proposant un modèle fonctionnel d'ici fin mars 2016. D'ici là, il va poursuivre ses recherches pour réduire encore plus le nombre de commutateurs réseau dans les supercalculateurs en cluster.

(...)

(15/07/2014 16:42:40)

Le contrat polémique entre Atos et le ministère anglais du Travail prolongé

Atos a remporté un contrat de 12,6 millions d'euros (10 millions de livres sterling) auprès du ministère du Travail et des Pensions britannique (DWP) pour fournir des services IT dans le cadre de son système de contrôle des invalidités. Le premier contrat qui liait à l'origine la SSII française et ce ministère avait été signé pour la première fois en 1998 avant d'être prolongé à plusieurs reprises. Le dernier en date devait se terminer en août de façon anticipée mais il a été prorogé de 6 mois, jusqu'en février 2015.

La SSII française a été pris dans la tourmente d'une polémique autour de l'instauration du système de surveillance des allocataires britanniques bénéficiant d'allocations pour handicaps, nombre d'entre elles ayant été supprimées avant d'être restituées par la suite par la justice. En février dernier, Atos avait fait savoir au DWP sa volonté de rompre son contrat après avoir enregistré, en 2013, 163 insultes et agressions à l'encontre de ses collaborateurs en Grande-Bretagne.

Le nouveau contrat signé entre Atos et DWP, qualifié par le ministère comme un arrangement provisoire, a été négocié et mis en place sans aucun appel d'offres, officiellement pour des raisons techniques. La possibilité de trouver un autre fournisseur pour assurer la transition avec Atos dans des délais aussi courts sans risque d'échec ayant été jugé quasi impossible. « Un autre fournisseur n'aurait pas été capable de répliquer les services IT existants car il n'existe pas de documentation suffisante pour les concevoir », a indiqué le ministère britannique du travail. En attendant, le DWP travaille d'arrache-pied pour remplacer Atos dont le contrat ne devrait pas, cette fois, être de nouveau reconduit après février 2015.

(...)

(10/07/2014 13:57:32)

IBM investit 3 Md$ pour inventer l'ordinateur de demain

Au cours des cinq prochaines années, IBM dépensera 3 milliards de dollars dans la recherche en informatique et dans la conception de processeurs. D'une part, le constructeur veut revoir de fond en comble le design des ordinateurs, mais il veut aussi trouver de nouveaux matériaux qui supplanteront le silicium des puces actuelles. Cette recherche pourrait ouvrir la voie aux ordinateurs quantiques et cognitifs dont le fonctionnement imite le comportement du cerveau. « Depuis les années 1940, l'architecture de l'ordinateur n'a pas changé. Au regard des problèmes auxquels nous devons faire face aujourd'hui, nous pensons que le moment est venu de concevoir un nouveau type d'informatique », a déclaré Supratik Guha, directeur en sciences physiques du laboratoire IBM Research. Le design au silicium n'évolue plus et les capacités de réduction des puces ont atteint leurs limites. IBM regarde déjà du côté du graphène, des nanotubes de carbone et autres matériaux pour remplacer le silicium dans les ordinateurs, et il essaye de développer des puces dont la taille peut descendre à l'échelle atomique.

L'annonce de Big Blue arrive après la déclaration de Hewlett-Packard : il y a un mois, ce dernier révélait qu'il avait commencé à repenser le design de base des ordinateurs. « L'objectif d'IBM est de fournir les briques de base de systèmes capables de traiter intelligemment de grandes quantités de données tout en consommant moins d'énergie », a déclaré Tom Rosamilia, vice-président senior, Systems and Technology Group d'IBM. Ces ordinateurs seraient très utiles dans des domaines comme la recherche sur le cancer, la modélisation météo et ils pourraient gérer des services plus intelligents dans le cloud. « Certains accélérateurs comme les processeurs graphiques ont permis d'améliorer les performances des ordinateurs sur le court terme, mais il devient de plus en plus difficile de réduire la taille des processeurs à base de silicium pour améliorer les performances et baisser la consommation d'énergie », a ajouté le vice-président senior. « L'histoire offre plusieurs exemples de bonds technologiques. Mais si nous ne commençons pas à les inventer aujourd'hui, nous ne franchirons jamais cette étape », a-t-il encore déclaré.

Concevoir la base qui servira demain aux futurs PC


IBM travaille déjà sur la conception d'ordinateurs quantiques et de supercalcuteurs imitant le fonctionnement du cerveau. Depuis des décennies, les scientifiques développent des théories sur ces machines, mais elles s'avèrent difficiles à créer. « Ces ordinateurs du futur sont basés sur des architectures différentes de celles utilisées aujourd'hui, et nous ne savons pas encore quel nouveau type d'architecture privilégier par rapport à un autre », a déclaré le vice-président senior, Systems and Technology Group d'IBM. « Big Blue pourrait mélanger et combiner différentes technologies pour fournir les briques de base qui serviront à construire de nouveaux systèmes informatiques », a ajouté Tom Rosamilia. « Le système qui fonctionnera le mieux servira de socle aux technologies de demain et pour de nombreuses années », a-t-il encore déclaré. « Il faut planifier cela très en avance pour arriver à ce résultat et nous prenons l'affaire très au sérieux ». Les premiers fruits de cette recherche bénéficieront certainement en priorité aux ordinateurs à haute performance. Ensuite, ces technologies pourraient se retrouver dans les ordinateurs portables et desktop, mais Tom Rosamilia n'a pas été en mesure de dire combien de temps il faudrait attendre pour cela.


IBM commence à tester des wafer en graphène pour produire les puces de demain.

Dans le même temps, la loi de Moore énoncée en 1965 par le cofondateur d'Intel, Gordon Moore, continue à s'appliquer : celui-ci avait annoncé que la complexité des semi-conducteurs doublerait tous les deux ans. C'est encore le cas aujourd'hui, mais cette évolution exponentielle devrait marquer le pas dans la prochaine décennie. Les ingénieurs cherchent de nouveaux designs de puces pour augmenter les performances, d'autant plus que leur taille diminue. Intel se prépare à livrer des puces PC fabriquées selon le processus de gravure à 14 nanomètres et le fondeur projette de descendre au processus à 10 nanomètres dans les années à venir. « La dernière révolution dans la fabrication des puces date de 1950, quand les chercheurs sont arrivés à purifier le silicium, et il va devenir de plus en plus difficile d'intégrer davantage de fonctionnalités dans les puces quand on atteindra les 7 nanomètres et moins, à mesure que l'on se rapproche du niveau atomique », a expliqué Supratik Guha. « Mais on ne sait pas encore très bien par quoi le silicium sera remplacé », a ajouté le directeur scientifique.


IBM commence à tester des puces reposant sur des nanotubes de carbone pour remplacer le silicium.

Les nanotubes de carbone, ces cylindres en atomes de carbone, semblent l'option la plus prometteuse pour le remplacer. Les chercheurs d'IBM travaillent toujours sur la réduction de la taille de ces nanotubes, mais ils doivent aussi résoudre des problèmes de refroidissement, et beaucoup de questions se posent au sujet de la sécurité. « Cependant, tous les chercheurs s'accordent pour dire que ces problèmes techniques peuvent être résolus », a affirmé Supratik Guha. Les ordinateurs quantiques et neuronaux impliquent aussi des recherches sur le comportement de l'ordinateur. Dans le cadre de son programme Synapse, Big Blue développe des machines qui imitent le fonctionnement du cerveau. Celles-ci reproduisent approximativement la façon dont le cerveau traite l'information en parallèle, utilisant pour cela les milliers de milliards de connexions synaptiques des neurones. En 2011, IBM a montré une puce neuronale avec des synapses programmables ayant des capacités d'apprentissage pour la navigation et la reconnaissance de formes. L'objectif d'IBM est de construire une puce neuronale qui imite le cerveau humain, avec 10 milliards de neurones et 100 trillions de synapses, et ne consommant que 1 kilowatt.

Un ordinateur quantique déjà opérationnel chez D-Wave Systems ? 

Les ordinateurs quantiques fonctionnent avec des bits quantiques (qubits) qui peuvent prendre les valeurs 1 et 0. Dans les ordinateurs classiques, les bits ne peuvent prendre qu'une valeur fixe de 1 ou de 0 à un moment donné. Grâce à leur capacité de stocker et de partager des données dans plusieurs états, les qubits pourraient permettre d'accélérer les temps de calcul. Mais il reste de nombreuses questions à résoudre, comme le bruit quantique, qui met les qubits dans un état où ils ne sont plus capables d'exécuter les programmes normalement. Le seul ordinateur quantique connu est vendu par D-Wave Systems, mais, plus tôt cette année, les chercheurs d'IBM ont émis des doutes quant aux capacités quantiques de la machine.

(...)

(10/07/2014 11:08:47)

Comment la France devient un marché stratégique pour AWS

Après 8 ans d'existence, une présence dans 10 zones géographiques dans le monde - et pas moins de 44 baisses de prix opérées dans ses services cloud depuis le début de sa création -Amazon Web Services (AWS) veut passer la seconde. Il faut dire que la pression concurrentielle s'est accrue avec Google qui a sorti en décembre dernier son offre Compute en version finale, ou encore Microsoft qui propose avec Azure une offre alternative de premier plan. Sans compter l'agressivité des casseurs de prix comme Digital Ocean. Pour AWS, l'un des enjeux pour maitenir - voire faire progresser - sa croissance est donc de s'appuyer plus que jamais sur le dynamisme local. Et c'est ainsi que le géant du cloud mise plus que jamais sur la France pour doper son activité. Un marché stratégique qui compte également des acteurs locaux comme Numergy, OVH, Ikoula, YaCloud ou Aruba.

« La France est un pays stratégique pour AWS et nous y avons réalisé des investissements importants dans nos équipes commerciales et marketing pour aider les entreprises à se transformer », explique Miguel Alava, directeur d'AWS France. Un investissement qui devrait également se traduire par une implantation sur le territoire, bien qu'aucune date n'a pour l'heure été précisée. « Nous sommes toujours à l'écoute d'une expansion locale qui est un processus long et continu, mais il est possible d'envisager à long terme une implantation en France », nous a indiqué le dirigeant.

Aujourd'hui, de nombreuses entreprises françaises font appel à AWS pour répondre à leurs besoins cloud, en particulier sur la partie réseau, qui peut même constituer un prérequis pour les clients d'AWS avant toute extension de déploiement cloud dans d'autres domaines (compute, stockage...). C'est le cas par exemple de Schneider Electric qui a beaucoup travaillé sur la problématique de la connectivité réseau dans le cadre de son projet de réseau social d'entreprise basé sur Tibco Tibbr et hébergé chez AWS. « L'un des éléments déclencheurs pour Schneider Electric a été de répondre à la problématique de connectivté réseau en faisant appel à AWS VPC et une connexion direct connect via une fibre dédiée entre leurs infrastructures informatiques dédiées et les nôtres », indique Stephan Hadinger, senior manager solutions architecture AWS.

Des start-ups qui se tournent en priorité vers EC2 et S3

Pour autant, toutes les entreprises ne viennent pas au cloud par le truchement du cloud réseau. Des clients comme Lafarge ont ainsi également fait appel à AWS pour du compute EC2 et permettre à son site web de tenir la charge lors des pics de consultation dus à la publication de ses résultats financiers.

Si les grands comptes constituent une cible de choix pour AWS, avec 70% des entreprises du CAC 40 qui feraient partie de ses clients, les entreprises de plus petite taille sont également nombreuses à s'y intéresser en dépit d'une problématique IT bien différente. C'est le cas par exemple de Photobox qui a pris le chemin du cloud AWS par le biais d'EC2 et de S3 avec l'objectif de remplacer son datawarehouse historique. « Grâce à AWS, Photobox a pu diviser par 7 son coût de possession informatique et transformer leur business pour être plus flexible et réactif », fait savoir Stephan Hadinger, senior manager solutions architecture AWS. Ou encore de la mutuelle santé Smatis, qui migre actuellement entièrement son IT vers le cloud AWS pour réduire les coûts et améliorer l'efficacité de son informatique. « Les start-ups sont sans doute les premières à se tourner vers EC2 et S3 car elles n'ont pas à gérer de problématique en termes d'infrastructure informatique existante, sachant que les grandes commencent à se familiariser avec ces offres, d'autant que nous veillons à implémenter continuellement des innovations, 280 en 2013 et 200 déjà à date, comme dernièrement les plugins pour VMware VSphere et Microsoft SCOM », complète Miguel Alava.

Pour continuer à séduire les entreprises françaises (grandes ou petites), AWS joue par ailleurs également la carte de la proximité en s'appuyant sur un réseau de partenaires locaux (Capgemini, Ysance, Morea, Neoxia...). Tout en n'oubliant pas de les rassurer sur l'absence, pour l'heure, d'un datacenter AWS sur le territoire. « Pour palier les latences réseaux, nous travaillons avec des partenaires comme Intercloud pour établir des connexions directes entre Paris et Dublin et permettre des temps de latence qui ne dépassent pas 15 ms », avance Stephan Hadinger. Quant à la problématique d'un manque de sécurité, elle serait loin de constituer un frein : « la sécurité est le premier poste d'investissement d'AWS et nos datacenters bénéficient des dernières certifications sécurité avec la possibilité grâce à une solution comme VPC de proposer un réseau privé ne bénéficiant d'aucune surface d'attaque en utilisant des adresses IP non routables, ce qui constitue la plus efficace des bulles étanches », assure Stephan Hadinger. Reste que l'arrivée d'un datacenter en France est un secret de polichinelle : il s'agit d'une étape indispensable pour assurer le développement de l'activité. Et en Allemagne, c'est une chose presque faite à Francfort comme l'a indiqué notre confrère The Register qui a publié la liste des noms de domaines déjà réservés par AWS.

(...)

(10/07/2014 09:17:26)

Atos va assurer la gestion du système d'information v2 de Schengen

Eu-LISA, l'Agence européenne pour la gestion opérationnelle des systèmes d'information à grande échelle, a récemment annoncé avoir conclu un contrat avec un consortium mené par Atos, auquel participe aussi Accenture et HP. L'accord, qui s'étend sur une durée minimum de trois ans, couvre la maintenance de même que l'amélioration du système d'information Schengen de deuxième génération (SIS v2). Le rôle des trois entreprises est clairement déterminé. Atos, qui a déjà développé et veillé au bon fonctionnement du premier système SIS, est chargé d'assurer la maintenance corrective et évolutive du second. Accenture a pour mission  d'améliorer et de faire évoluer l'architecture logicielle du SIS v2, ainsi que de former et fournir une assistance aux utilisateurs. Quant à HP, sa fonction consiste à fournir les serveurs, ainsi que les infrastructures réseau et de stockage.

Le site de l'Union européenne informe que le SIS v2 vise à assurer un niveau de sécurité publique élevé. Il est utilisé par les gardes frontières, les polices et les autorités chargées des visas et du maintien de l'ordre dans l'espace Schengen. Le SIS v2 se compose d'un système central synchronisé aux systèmes nationaux et se profile comme une infrastructure de communication, laquelle fournit un réseau virtuel crypté consacré aux données des personnes voyageant en Europe. Ce système d'informations à grande échelle sert notamment au signalement de ressortissants de pays tiers interdits de séjour dans l'espace européen.

ICTjournal.ch (...)

(09/07/2014 16:43:51)

Apple va construire une 3e ferme de panneaux solaires

La firme à la pomme croit dur comme fer à l'énergie solaire. Afin de répondre à l'explosion en demande énergétique de ses centres de calcul, Apple s'est en effet engagé depuis 2012 dans la construction de fermes de panneaux solaires. Située tout près de la ville de Claremont en Caroline du Nord, cette troisième installation sera d'une superficie de plus de 40 hectares, soit une surface équivalente à la première ferme de panneaux solaires, localisée à quelques kilomètres de là, à Conover.

La superficie de cette 3e ferme de panneaux solaires sera donc de près de 40 hectares, soit une superficie identique à sa première ferme mais moins grande que la deuxième qui atteignait près de 70 hectares. La puissance électrique annoncée pour cette dernière ferme est de 17,5 mégawatts. Sachant que les deux autres fermes d'Apple produisent 40 mégawatts de puissance électrique, la puissance électrique totale pour les trois centres d'Apple devrait donc approcher les 60 mégawatts.

Pour réaliser cette 3e ferme de panneaux solaires, l'investissement d'Apple se monterait à 55 millions dollars, avec à la clé 75 emplois créés pour sa construction. Le prix du terrain, racheté par Apple à la mairie de Claremont, est évalué à 1,4 million de dollars, sachant que la firme à la pomme compte rendre deux parcelles à la ville pour qu'elles les utilisent comme espaces arborés et terrains de jeux notamment, pour un montant combiné de 96 000 dollars.

(...)

(09/07/2014 09:38:34)

RHEL OpenStack Platform 5 veut faciliter la gestion des clusters Hadoop

Le fournisseur de logiciels Open Source Red Hat, et premier contributeur à la plate-forme OpenStack, a annoncé la disponibilité de Red Hat Enterprise Linux (RHEL) OpenStack Platform 5. Ciblant les fournisseurs de cloud public, les FAI ou encore les opérateurs de télécommunications, cette solution s'appuie sur Icehouse, la dernière itération de l'environnement Open Source OpenStack. De nombreuses améliorations sont annoncées, au premier rang desquelles un support de trois ans assurés par l'entité Global Support Services de Red Hat, une intégration facilitée à l'infrastructure VMware avec le support des plugins NSX et VMDK, respectivement pour OpenStack Networking (Neutron) et Block Storage (Cinder), sachant que les ressources vSphere préexistantes peuvent maintenant servir de pilotes de virtualisation pour les noeuds OpenStack Compute (Nova).

Red Hat annonce en outre une meilleure répartition des workloads entre les ressources cloud afin d'apporter une résilience accrue des applications distribuées et réduire le temps de latence des communications pour accroître la performance des applications complexes. Tout comme un support amélioré des machines virtuelles supportant les mécanismes de sécurité chiffré les plus récents imposés aux États-Unis et au Royaume-Uni. De plus, RHEL OpenStack Platform 5 intégrera la version préliminaire du service de traitement de données Sahara, facilitant le provisioning et l'administration des clusters Hadoop sur OpenStack.

RHEL OpenStack Platform 5, basée sur Red Hat Enterprise Linux 7, est d'ores et déjà disponible. La version reposant sur sur Red Hat Enterprise Linux 6 le sera dans les prochaines semaines.

(...)

Les 10 documents suivants >


Publicité
Publicité
Publicité