Flux RSS

Cloud computing

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

904 documents trouvés, affichage des résultats 411 à 420.

< Les 10 documents précédentsLes 10 documents suivants >


(03/03/2011 10:42:50)

La haute densité va se renforcer dans les datacenters selon le Gartner

Le Gartner estime qu'une zone à haute densité nécessite une énergie supérieure à 10 kW par rack. Or, les datacenter construits depuis cinq ans ont été conçus pour distribuer 2 kilowatts (kW) à 4 kW par rack. Avec l'utilisation croissante des systèmes de lame haute densité, l'énergie des datacenter n'est plus suffisante pour équilibrer la puissance et les exigences de refroidissement des différents équipements informatiques (serveurs, stockage et mise en réseau des boîtes) réunis dans un même centre de données physiques.

Une zone de haute densité nécessite effectivement des refroidissements supplémentaires. Rakesh Kumar, vice-président recherche chez Gartner, souligne que si le bâtiment du datacenter n'évolue pas dans le temps, tous les systèmes informatiques à l'intérieur ne cessent de le faire. C'est l'équilibrage entre tous ces changements qui fait la complexité du sujet. Garner conseille doncaux entreprises de développer une zone à forte densité suffisamment grande pour accueillir des capacités supplémentaires, normalement de 20 à 25 pour cent de l'espace plancher. 

Toutefois, les utilisateurs restent encore sceptiques note le Gartner. Ils restent incertains sur la possibilité d'obtenir une flexibilité dans la prévision des capacités nécessaires et sur les pièges potentiels de la haute densité.  «Les zones à haute densité sont de loin la meilleure façon de gérer les différences dans les changements du cycle de vie des structures des bâtiments des centres de données, leurs équipements électromécaniques et autres », a pourtant souligné Rakesh Kumar.

(...)

(03/03/2011 10:57:41)

Cebit 2011 : SAP crée des solutions OnDemand avec ses clients

Il y a deux ans, SAP a embauché John Wookey pour piloter sa stratégie « on-demand » en direction des grandes entreprises. Sa mission consistait à mettre en place un catalogue de solutions en ligne qui permettrait aux clients de la Business Suite d'ajouter, de façon flexible, des fonctionnalités complémentaires à leur système de gestion. Deux offres de ce type ont déjà été livrées (Carbon Impact, pour calculer l'empreinte carbone, et Sourcing OnDemand, pour gérer les sources d'approvisionnement et les achats stratégiques). Une troisième vient de s'y ajouter, annoncée à l'occasion du Cebit de Hanovre. Il s'agit de Sales OnDemand, une application apportant aux équipes de vente un cadre pour collaborer autour de leurs opportunités commerciales.

Cette solution en ligne présente la particularité d'avoir été développée sur la plateforme hébergeant Business ByDesign, l'application SaaS pour PME. C'est la première du genre chez SAP. Elle inaugure une nouvelle catégorie d'applications que l'éditeur met au point avec la participation de ses clients. L'objectif qu'affiche l'éditeur est de concevoir des interfaces et des enchaînements fonctionnels collant au plus près des souhaits des utilisateurs. SAP souligne aussi sa volonté de faciliter le partage d'informations, en particulier à l'aide d'outils empruntés aux médias sociaux(*), et de favoriser la mobilité ainsi que l'ont illustré les démonstrations faites au Cebit de Sales OnDemand, déroulées sur la tablette iPad d'Apple.

De l'application ciblant le dirigeant jusqu'à l'usage de masse

Sur le même modèle, d'autres logiciels seront annoncés au cours de l'année, chacun ayant vocation à s'utiliser sur des terminaux mobiles et à s'intégrer aux déploiements « on premise » de la Business Suite, dans le cadre d'un processus métier bien défini. Pour les créer, SAP interroge les entreprises très en amont sur les fonctions qui leur manquent et la façon dont elles voudraient pouvoir y accéder et les manipuler, explique notamment Thorsten Stephan, vice président, responsable des applications mobiles. Il cite en exemple une solution de gestion des notes  de frais qui proposerait à son utilisateur de photographier sa facture de restaurant, d'y ajouter vocalement le nom des personnes invitées, avant d'expédier le tout vers la Business Suite. « Cela doit être très facile à utiliser », insiste Thorsten Stephan en rappelant que la puissance du terminal ne limite plus, désormais, les fonctionnalités de l'application, comme ce pouvait être le cas avec les logiciels sur PC.  « La cible des utilisateurs mobiles est très large : cadres dirigeants, utilisateurs de base, techniciens sur le terrain et jusqu'aux consommateurs [dans le domaine de la grande distribution, notamment]. Nous pouvons maintenant concevoir des applications destinées à un usage de masse ».  

Illustration : Démonstration de l'application Sales OnDemand de SAP

(*) Dans cette catégorie d'outils, l'éditeur Salesforce.com, spécialisé sur les logiciels en ligne destinés aux commerciaux, a lancé il y a quelques mois l'application Chatter, dotée d'une interface à la Facebook, qui semble avoir rencontré un certain succès auprès de ses clients. Microsoft de son côté vient de lancer en France la version hébergée de sa gestion de la relation client, Dynamics CRM Online, qui s'appuie beaucoup sur Outlook.

(...)

(02/03/2011 14:45:36)

IBM affine ses outils pour automatiser et accélérer la virtualisation

Dennis Quan, directeur du laboratoire de développement Tivoli Chine d'IBM, est resté assez vague sur la manière dont le logiciel pouvait atteindre ces vitesses de déploiement de VM, indiquant simplement qu'il utilisait un certain nombre de techniques, dont le streaming de l'image. Selon lui, « le logiciel permettrait d'améliorer les performances dans des entreprises où les personnels des services informatiques doivent consacrer plusieurs minutes, voire même une heure, à installer une seule machine virtuelle. » Et ce se serait pas son seul avantage. Une des raisons pour laquelle les entreprises déplacent leurs activités vers le cloud, c'est pour n'utiliser que les ressources informatiques dont elles ont besoin. « Cette idée suppose également que, quand ces ressources ne leur sont plus nécessaires, elles peuvent les restituer au cloud et les rendre disponibles à d'autres utilisateurs, » ajoute Dennis Quan. Or, certains rechignent à se séparer de ces ressources, même si elles ne sont plus utiles. En particulier, à cause du temps qu'il leur faudra consacrer à nouveau pour les remettre en place. « Si vous offrez aux utilisateurs la possibilité de retrouver leurs ressources en quelques secondes, voire quelques minutes, ils ne vont plus se demander combien de temps il leur faudra pour les récupérer rapidement et ils accepteront de s'en défaire au moment voulu, » a déclaré le directeur du laboratoire de Big Blue. « Le logiciel permettra également aux entreprises d'agir plus rapidement, pour effectuer des modifications, par exemple, » a-t-il ajouté.

IBM a également annoncé que Tivoli Provisioning Manager prenait désormais en charge la fédération d'image et le déploiement sous infrastructure hétérogène. « Cet outil apporte un système de gestion unique pour différents hyperviseurs » a déclaré Dennis Quan. « Une entreprise peut utiliser VMware, PowerVM et des hyperviseurs Xen et les gérer depuis la même console, » explique-t-il. IBM annonce également le lancement « imminent » de la version bêta d'un nouveau logiciel qui étend les capacités de gestion aux clouds hybrides. « Les utilisateurs pourront surveiller et diriger des services hébergés en interne ou sur des clouds publics. Ces modalités sont très adaptées aux services financiers et aux organismes publics qui préfèrent conserver les données importantes dans leurs systèmes internes et acceptent de mettre des applications moins sensibles dans un cloud public, » déclare encore le responsable de Tivoli Chine. Ce dernier n'a pas communiqué la liste des clouds publics qui seraient supportés, mais a affirmé que le logiciel serait en mesure d'être relié à de nombreux services. Celui-ci compte affiner cette liste avec le déploiement de la version bêta. IBM annonce également que Tivoli Storage Manager, son logiciel de gestion des besoins de stockage, de récupération et de protection des données, prend désormais en charge la virtualisation. « Celui-ci offre un meilleur contrôle sur l'environnement et applique une politique plus uniforme, » explique encore Dennis Quan.

Ces nouvelles fonctionnalités et produits seront probablement bien accueillis par les directeurs financiers, mais pas forcément par les services informatiques. « L'automatisation de la gestion et la réduction du temps d'approvisionnement font que les services informatiques auront besoin de moins d'administrateurs, » estime le responsable d'IBM. « Dans un environnement informatique, c'est la ressource humaine qui coûte le plus cher, » ajoute-t-il. « Avec des milliers de machines virtuelles, chaque minute de l'activité humaine requise par chacune d'elle fait grimper la facture. Plus ce secteur sera automatisé, et plus une entreprise pourra réaliser avec le cloud des retours sur investissement. »

Illustration principale : Denis Quan, crédit photo H. Parkey-Coney/IBM

(...)

(02/03/2011 12:46:04)

Cebit 2011 : les yeux de Chimène pour l'ouverture, le cloud et les tablettes

A la soirée d'inauguration du Cebit 2011, Angela Merkel, Chancelière allemande recevait à l'occasion de la manifestation sur les nouvelles technologies, la Turquie avec la présence de Recep Teyyip Erdogan, Premier Ministre Turc. Ce dernier a vanté les mérites de son pays en matière de nouvelles technologies et des efforts qu'il reste à faire en matière d'éducation et de déploiement de l'Internet, mais il a insisté aussi sur la nécessité que la Turquie rentre dans l'Union européenne. Il a par exemple souligné les freins que constitue le besoin de visa pour les entrepreneurs turcs qui se rendent en Allemagne. Angela Merkel lui a proposé avec humour d'intégrer une puce dans les passeports pour améliorer les choses. Celle-ci a insisté sur l'importance des technologies dans les mouvements de protestations dans les pays arabes. Elle a aussi parlé en fin de discours du cloud computing en soulignant le potentiel de croissance que cela représente, tout en appelant les acteurs de ce marché à le rendre sur et facile d'accès. Le PDG d'IBM Sam Palmisano a dans son intervention rappelé l'importance d'avoir des standards ouverts pour apporter des réponses aux interrogations sur la sécurité. « De nombreux citoyens se sont interrogés sur qui détient toutes les données, qu'en font ils et peut-on avoir confiance en eux ? » précise le dirigeant.

Un cloud encore éparpillé dans le salon


Du discours à la réalité il n'y a qu'un pas que l'on franchi dès le hall 2 du Cebit. Le stand IBM où Angela Merkel s'est vue remettre un processeur Power PC d'IBM et a remercié... Intel pour l'occasion, montrait les bénéfices du cloud en affichant les différentes solutions hardware et software. D'autres halls intégraient à des degrés divers le cloud computing. Un espace dédié aux datacenters était visible montrant principalement le savoir faire en matière de réduction de consommation énergétique. Emerson avait installé un camion de démonstration devant le hall et semblait un peu isolé. Difficile par contre de trouver de réelles annonces, le Cebit n'étant pas un salon où les constructeurs et les éditeurs dévoilent des produits à destination des professionnels de l'IT. Ainsi, en matière de sécurité, le cloud n'est pas encore sur les lèvres des exposants qui disposent d'un hall pour eux. L'évangélisation sur la lutte contre le spam et les antvirus auprès du grand public restent un discours important. Et c'est peut-être un des enseignements du salon, si le cloud va bénéficier aux entreprises, les acteurs de l'IT doivent rester en veille sur les besoins du grand public, qui sont les vecteurs de la vague actuelle de « consumérisation de l'IT ».

datacenter cebit

Les tablettes fleurissent


MSI, Asus, TazTag ont présenté plusieurs tablettes lors du salon. 7'', 9'', 10'', Android, Windows 7, NFC, etc. toutes les technologies et les formats de tablettes sont présentes. L'offensive contre l'iPad est bien entamée surtout à quelques heures de la présentation de l'évolution de la tablette d'Apple. Les fabricants asiatiques présents sur les stands chinois montrent une variété impressionnante d'ardoises. Une course de vitesse s'est engagée pour répliquer, dupliquer et apporter une réponse au « time to market » des constructeurs. Cette accélération entraîne quelque fois des inattentions comme sur ce stand où Android est devenu Andriod. Devant cette hégémonie médiatique, les présentations de terminaux mobiles, de PC ou de périphériques sont passées plutôt inaperçues. Au final ce cru 2011 du CEBIT aura surfé sur la vague des deux tendances de l'année, le cloud et les tablettes.

Cebit Tablettes

(...)

(01/03/2011 10:39:00)

Cebit 2011 : Software AG devient cloud ready

Karl Heinz Streibich, le PDG de Software AG (1 milliard d'euros de chiffre d'affaires désormais), estime que « la transformation vers une véritable entreprise numérique est le prochain défi de la décennie. Rendre les process plus flexibles, plus agiles et les intégrer au sein des différentes activités de l'entreprise sont l'ambition de nos solutions entreprises de BPM ».  Le cloud va donc faire évoluer l'entreprise vers ce que le dirigeant nomme « l'extreme collaboration », c'est-à-dire la fin du dialogue en mode silo entre le monde applicatif et l'univers du marché (client, produits, etc...). Pour établir ce lien, Software AG dispose de deux outils, ARIS et WebMethod, qui se chargent, d'un coté, de gérer et de modéliser les processus de gestion et, de l'autre, d'appliquer les meilleures méthodes d'intégration ainsi que leur contrôle. Pour devenir cloud ready, l'éditeur allemand a travaillé sur une meilleure coordination entre les deux solutions en implémentant deux nouveaux composants. Le premier est CEP (Complex Event Processing) issu de l'acquisition de la société allemande RealTime Monitoring au début de 2010. Il effectue des requêtes sur des flux continus d'événements, une approche qui fournit des résultats suivis et redondants. Cette méthode permettra aux entreprises, via l'outil MashZone du logiciel ARIS, de visualiser les événements d'entreprise en temps réel. Par ailleurs, le second composant est l'intégration des outils de MDM (Master Data Management), issus du rachat de Data Foundation en octobre dernier, au sein de webMethods OneData.

Montée en puissance progressive

Le potentiel du cloud est très important selon le dirigeant de Software AG qui envisage de réaliser des grosses acquisitions toutes les deux ou quatre ans et pas uniquement en Allemagne. Cette démarche est poussée par le fait que seuls 25% des processus métiers des entreprises sont numérisés. Devant l'intérêt de certaines entreprises pour le cloud public, l'éditeur allemand a décidé de rendre compatible sa couche logicielle avec la plate-forme EC2 d'Amazon.  Le cloud privé n'est pas oublié avec un support pour VMware.  La majorité des annonces seront disponibles au troisième trimestre 2011. Un ensemble de service de conseil « cloud ready » sera aussi proposé aux clients lors du lancement officiel des solutions. Ces services comprendront « préparation avancée, la formulation de stratégies, la numérisation et l'analyse des processus pour les besoins du cloud ». Aucun prix n'a été communiqué sur les différentes solutions annoncées.

Illustration principale : ARIS MashZone (...)

(28/02/2011 17:34:53)

256 puces Atom double coeur dans un serveur SeaMicro

Après un premier ballon d'essai en juin dernier, SeaMicro semble bien décidée à poursuivre son effort avec le SM10000-64. Ce serveur dispose de 256 puces Atom N570 cadencées à 1,66 GHz (soit 512 coeurs au total), qui se combinent pour offrir une puissance de traitement de 850 GHz, a indiqué la compagnie. Chaque noyau est capable de fonctionner avec deux threads simultanément, ce qui contribue à stimuler les performances des applications. Les processeurs Intel Atom de faible puissance sont généralement utilisés dans les netbooks. Mais ces puces sont considérées comme plus économes en énergie que les processeurs traditionnels pour serveur et conviennent plutôt bien pour certaines tâches telles que les transactions Web, qui contiennent de petites quantités de données rapidement traitées.

Ce serveur est destiné aux datacenters de nouvelle génération qui prennent en charge des services Internet, tels que la messagerie, la recherche en ligne et le réseautage social, a déclaré Andrew Feldman, CEO de SeaMicro. La société cherche également à convaincre les fournisseurs de solutions d'hébergement et les prestataires de services cloud. En fonction de l'application utilisée, une collection de coeurs Atom pourrait fournir une meilleure performance par watt que des puces Intel Xeon ou AMD Opteron, qui consomment plus d'énergie et sont mieux adaptées aux calculs d'ingénierie, de mathématiques ou aux bases de données, poursuit Andrew Feldman. Par exemple, les moteurs de recherche Internet ne récupèrent pas toutes les données sur une machine géante, précise le CEO. Les informations sont réparties sur plusieurs groupes de petits serveurs qui se regroupent pour réaliser rapidement les opérations demandées. Les serveurs avec des puces de faible puissance utilisent moins de ressources pour l'exécution de ces tâches, explique encore le Californien. 

Alléger la consommation des datacenters

«Il y a un mouvement des matériels et des logiciels « lourds» vers des solutions plus légères. Nous construisons des systèmes qui sont conçus pour optimiser les opérations de calcul par watt. » L'intérêt pour la construction de serveurs avec des puces basse consommation augmente à mesure que les entreprises cherchent à réduire leur facture énergétique. Dell propose des serveurs avec des puces x86 de faible puissance et Microsoft a récemment demandé à Intel de mettre au point une puce Atom avec 16 coeurs pour équiper les serveurs de ses datacenters. AMD évalue actuellement  l'utilisation de ses puces Fusion pour netbook sur des plates-formes serveurs. Les processeurs ARM basse consommation, généralement utilisés dans les smartphones et les tablettes, pourraient aussi bientôt arriver sur le marché des serveurs. Le fondeur Marvell a déjà annoncé une puce serveur basée sur l'architecture ARM et un peu plus tôt cette année Nvidia a dévoilé le projet Denver, le nom de code d'un processeur ARM pour PC, serveur et supercalculateur. 

[[page]]

SeaMicro est l'une des rares sociétés qui tente exclusivement de construire des serveurs équipés de puces pour netbook. La firme est sortie de l'anonymat  en juin dernier avec le lancement du serveur SM10000, qui comprenait 512 puces mono coeur Atom Z530. Selon Andrew Feldman, beaucoup d'entreprises, comme les fournisseurs de services cloud computing et des sociétés de télécommunication, ont montré un réel intérêt pour son produit et l'ont utilisé pour des différentes tâches. Le SM10000-64 est plus rapide et plus économe en énergie que la première version du constructeur. Le passage à une puce double coeur plus rapide, la N570, a diminué le nombre de processeurs dans le serveur, ce qui a réduit sa consommation d'énergie. Le serveur consomme 15 à 17 % d'énergie en moins. Il prend également en charge les systèmes d'exploitation 64 bits, et supporte jusqu'à 4 Go de mémoire par puce. Le précédent serveur, le SM10000, ne prenait en charge que les  applications 32 bits avec un plafond de 2 Go de RAM.

Des améliorations souhaitées

Pour améliorer ses plates-formes, SeaMicro attend d'Intel qu'il développe les fonctionnalités de ses puces basse consommation avec les instructions pour l'instant réservées à ses processeurs Xeon. « Le N570 fournit la meilleure performance sur le segment des puces basse consommation », ajoute encore Andrew Feldman. SeaMicro évalue également des processeurs ARM. Ce dernier n'a toutefois pas l'écosystème logiciel indispensable ce qui le place dans une situation désavantageuse, puisque la plupart des centres de calculs sont aujourd'hui équipés de serveurs avec des puces x86. Mais ARM travaille à l'édification d'un tel écosystème et SeaMicro garde un oeil sur les progrès accomplis dans ce domaine.

Sur le plan technique, le SM10000-64 repose sur des puces Atom intégrées sur des mini lames de la taille d'une carte de crédit et reliées entre elles par un lien offrant un débit de 1,28 Térabit par seconde. La carte mère dispose d'un circuit dédié de type ASIC (Application-Specific Integrated Circuit), qui virtualise les fonctions telles que les entrées/sorties et qui réduit la nécessité de recourir à des composants spécifiques pour le réseau et le stockage. Le SM10000-64 peut accueillir jusqu'à 1 To de mémoire vive DDR3 et jusqu'à 64 disques durs ou SSD. La taille de ce serveur en rack est de 10 U, soit 17,5 pouces. 

Le prix du serveur commence à 148 000 $. Il est disponible aux États-Unis et dans le reste du monde, indique la compagnie.

(...)

(25/02/2011 15:57:57)

L'appel à une norme de log pour le cloud ne fait pas l'unanimité

La sécurité, la conformité réglementaire et la transparence des opérations et des systèmes font partie des grands défis à relever pour accélérer l'adoption du cloud, que ce soit pour les déploiements en interne, et davantage encore pour les solutions externalisées. Dans le cloud, la simple requête d'un utilisateur final peut parcourir le réseau local d'une entreprise, des serveurs externes, des cloud publics, et solliciter un certain nombre d'autres ressources avant d'être traitée. Pour beaucoup, ce parcours rend la lecture et la compréhension des logs relatifs aux opérations qui traversent les systèmes cloud hautement virtualisés, assez difficile. D'où la demande, par certains, d'une nouvelle norme pour les logs dans le Cloud. Mais celle-ci ne fait pas l'unanimité.

La question des logs au sein du Cloud mobilise depuis un certain temps l'entreprise de Misha Govshteyn, vice-président de la technologie et des solutions pour fournisseurs de service chez Alert Logic. L'entreprise, qui propose des services de sécurité et de management de logs, est encore plus concernée par le problème depuis qu'elle a pour client des fournisseurs de services d'hébergement. « Les états que nous recevons ne nous permettent pas vraiment de vérifier ce qui se passe chez eux, » explique-t-il. « Cette masse d'informations, déversée par la plupart des matériels et des logiciels, ne permet pas de savoir quelles ressources ont été sollicitées, qui a demandé le service, en quoi d'autres services ont contribué à la transaction, ou même ce qui a effectivement été utilisé par le demandeur, » ajoute t-il. C'est pourquoi, Alert Logic - avec le soutien de DataPipe, Eucalyptus Systems, Hosting.com, Mezeo Software, et Perimeter E-Security - a récemment proposé une norme, CloudLog, qui vise à simplifier la gestion des états de log pour les plates-formes Cloud et chez les fournisseurs de services.

Une meilleure visibilité et traçabilité


Actuellement en cours d'étude auprès de l'Internet Engineering Task Force (IETF) en vue de la rédaction d'un document informel Request For Comments (RFC), le CloudLog permettrait de savoir plus simplement sur quel matériel tournait telle ou telle machine virtuelle, ou à quelles ressources les utilisateurs, et leurs rôles associés, ont eu accès. « Les machines virtuelles bougent en permanence, et tournent sur différentes machines physiques. Si vous vous retrouvez avec une machine physique qui a été endommagée, c'est un vrai défi de savoir quelle machine virtuelle tournait sur cette machine physique à un moment donné, » explique John Eastman, CTO de Mezeo Software, une entreprise qui vend des services de stockage aux fournisseurs. « La seule information dont on dispose, c'est que le système tournait dans le Cloud, »  ajoute-t-il. En l'état actuel, Mezeo a intégré CloudLog dans sa plate-forme Cloud Storage pour simplifier l'enregistrement des données essentielles. « Avant d'utiliser le format CloudLog, nous avons dû comprendre comment rendre cette information intelligible, parce que même si nous disposions des logs, il restait difficile d'associer un système avec les machines virtuelles, » explique le patron de Mezeo. « CloudLog nous a aidé à résoudre certaines questions de sécurité, relatives à la transparence notamment, et à identifier exactement qui utilisait telle ou telle machine virtuelle, » indique John Eastman.

Quelques réfractaires


Mais tout le monde n'est pas convaincu de la nécessité d'une standardisation. C'est notamment l'avis de Raffael Marty, fondateur et directeur de Loggly qui fournit des services de log pour le cloud. « Je tiens à souligner que le cloud, que ce soit le SaaS, PaaS, ou IaaS, n'a pas besoin d'une nouvelle norme de log ! Depuis des années, nous travaillons avec des architectures multi-niveaux et virtualisées qui sont à la base de la construction du Cloud. Aucun des attributs spécifiques du Cloud, comme l'élasticité, le paiement à l'usage, etc... n'exigent une gestion de log particulière, » écrit-il sur son blog dans un article intitulé « Pourquoi une norme de log pour le Cloud n'a pas de sens. » Selon lui, s'il y a un effort à faire en matière de log dans le Cloud, pour des architectures virtualisées, asynchrones, et distribuées, c'est plutôt du côté du standard Common Event Expression (CEE) qu'il faudrait regarder. Mais, selon Misha Govshteyn, il n'existe encore aucune implémentation du standard CEE, ni aucun projet de publication d'une quelconque spécification à l'étude. « Nous devons avancer dans cette direction,» estime-t-il.

(...)

(25/02/2011 15:29:11)

CIO.PDF 32 : le cloud public décortiqué

Il n'y a pas de repas gratuit, disent les américains. Le Cloud public y ressemble pourtant beaucoup. Plus flexible et donnant une meilleure visibilité sur les coûts qu'une informatique interne, il séduit de plus en plus d'entreprises. Où est le piège? Ce numéro de CIO.pdf présente les choix de dix entreprises. Sous la pression de la crise économique et grâce à une meilleure maturité des offres, le Cloud séduit de plus en plus, d'autant que la sécurité et la qualité de service sont moins perçues comme des obstacles. Il faut cependant tirer le maximum de ses contrats et faire évoluer les informaticiens de l'entreprise vers de nouvelles responsabilités.

10 décideurs IT témoignent dans ce dossier : Vincent Brillot (Ceva Santé Animale), Hervé Dumas (Valeo), Pascal Thomas (Pages Jaunes), Christophe Suffys (Bittle), Joël Bentolila (TalentSoft), Raphaël Mansuy (Air Liquide - Caliatys), Dominique Guiffard (LVMH), Massimo Spada (Alstom), Patrick Del Vecchio (Taxis Bleus), Eric Harand (Eden Park).

Ce numéro comprend aussi une interview d'Eric Baudson, directeur des opérations de la banque de financement et d'investissement du Crédit Agricole. Il a du transformer les SI du groupe bancaire en pleine crise des subprimes. Nos confrères de CIO Etats-Unis vous invitent, au travers d'un autre article, à gérer correctement votre présence sur les outils sociaux, notamment Twitter.

Enfin, CIO.PDF 32 inclut une interview exclusive de Christiane Féral-Schuhl, première avocate spécialisée dans les TIC à être élue à la tête d'un barreau, en l'occurrence le plus grand de France, celui de Paris. Elle revient sur les bonnes pratiques juridiques à avoir lorsque l'on est DSI.

Téléchargez CIO.PDF 32 (...)

(25/02/2011 14:53:51)

QFabric de Juniper repense l'infrastructure réseau des datacenters

Après 4 ans de préparation, QFabric (Quantum Fabric) tient la promesse de rénover l'architecture réseau des datacenters en passant des 3 couches dévolues à l'infrastructure réseau à une seule entité logique. « L'architecture QFabric est dix fois plus rapide, consomme 77 % d'énergie en moins, est nettement moins complexe et nécessite 90% d'espace en moins dans le datacenter », argumente le CEO de Juniper Kevin Johnson. Cette architecture repensée s'apparente à un commutateur unique pour datacenter, supervisée par une plate-forme de gestion qui donne une vue sur l'ensemble de la matrice de commutation. La solution dévoilée par Juniper comprend trois dispositifs - la plate-forme de gestion administrateur, l'interconnexion et la commutation de la Fabric et le noeud, qui gère les ports d'entrée et de sortie. A ces trois axes sont associés des produits dédiés,  QF Director, QF Internconnect et le QFX3500 pour la partie node.

Les améliorations de performances promises par QFabric donneraient à Juniper une avance sur Cisco et HP, dit Rob Whiteley, analyste chez Forrester Research. Brocade est le concurrent direct avec une approche similaire, même s'il faut attendre de pouvoir observer des déploiements complets pour comparer les deux éléments, ajoute le consultant.

Un déploiement en étape


Le premier élément de QFabric commercialisé est le QFX3500, un commutateur fonctionnant sous l'OS Junos. Cette première brique devrait au troisième trimestre subir une mise à niveau logicielle le transformant en un noeud dans l'architecture QFabric. Elle lui permettra d'affecter les politiques de routage en mode peer-to-peer ce qui limitera le taux de congestion  dans le cadre d'un plan de contrôle distribué.

Le QF Director est un serveur x86 avec des ports Gigabit Ethernet assurant la connexion à tous les noeuds dans le centre de calcul. Le châssis QF Interconnect prend en charge 128 ports QSFP. Le QFX3500 dispose de 48 ports 10G Ethernet QSFP + ainsi que des interfaces Fibre Channel 2G, 4G et 8G et quatre liaisons montantes Ethernet 40G QSFP. Le prix de ce dernier équipement est de 34 000 dollars, les deux autres ne sortiront qu'au troisième trimestre 2011 et leur prix n'est pas encore connu.

Le fondateur et CTO de Juniper, Pradeep Sindhu, a expliqué que les clients pourraient migrer progressivement vers la solution globale, même s'ils utilisent des équipements d'un autre fournisseur. Comme ils sont standardisés (via des interfaces Ethernet ou Fiber Channel), les modules de QFabric pourront être déployés en tandem avec l'infrastructure existante. QFabric ne sera pas limité aux centres de calcul, précise le dirigeant. Plus tard cette année, Juniper expliquera comment sa solution peut améliorer les performances de connexion du datacenter au WAN. Tom Nolle, président of CIMI Corp, société de conseil considère cette possibilité comme importante, car elle autoriserait une plus grande évolutivité et souplesse à une infrastructure cloud en lui procurant des performances fiables et prévisibles sur des ressources dispersées.

(...)

(25/02/2011 10:12:22)

Le Cebit 2011 très connecté et très cloud

Pendant européen du salon CES de Las Vegas, organisé en janvier, le CeBit de Hanovre est, depuis le milieu des années 80, l'événement high-tech référence du vieux continent. Cependant, la crise économique de 2008 a sérieusement réduit l'ampleur du show allemand. Cette année, environ 4 200 sociétés seront présentes à la Deutsche Messe, alors que l'édition 2006 comptait pas moins de 6 200 exposants. Ces dernières années, certains géants comme Samsung, Toshiba, ou Philips, ont même fait l'impasse sur l'événement. Les organisateurs se veulent toutefois rassurants. « Les entreprises ont de grandes attentes pour cette édition du CeBit » a souligné Ernst Raue, l'un des dirigeants du salon. « Elles sont déterminées à profiter de cet événement pour de nouvelles opportunités et une reprise de la croissance ».

Le salon, qui attire près de 700.000 visiteurs, a d'ailleurs été réorganisé en quatre plateformes bien distinctes ; CeBit pro pour les professionnels, CeBit gov pour le secteur public, CeBit lab pour la recherche et CeBit life pour les dernières tendances en matière d'électronique grand public.

Un monde ultra connecté et orienté cloud


Thème majeur de ce CeBit 2011, le Cloud Computing. Ce concept, traduit en français par « informatique dans le nuage » (ou « informatique dématérialisée »), repose sur les services et les technologies de l'information fournis par des ordinateurs et des serveurs répartis dans le monde, et reliés entre eux par Internet. Cette révolution annoncée permettrait aux entreprises de se passer de serveurs propres (elles utiliseraient la puissance de calcul et de stockage de machines distantes), et aux consommateurs d'utiliser des logiciels et de la mémoire accessibles à distance, et non plus stockés sur leurs ordinateurs. C'est d'ailleurs cette logique qui anime le futur système d'exploitation Google Chrome OS. Les PC et netbooks s'allumeront en quelques secondes, et la plupart des fonctionnalités (traitement de texte, multimédia, etc.) seront accessibles via Internet. La principale conférence du salon sera ainsi axée sur le « cloud », et pas moins de 1000 forums, débats et ateliers tourneront autour de cette notion.

De manière générale, de nombreuses annonces du CeBit devraient concerner des solutions connectées. Alan Mulally, PDG de Ford, doit notamment exposer les avancées du secteur automobile en matière de technologies embarquées : accès aux webradios, surf en WiFi depuis une tablette pour les passagers arrière, affichage des cartographies en ligne pour le conducteur, etc. Une « Smart Home », exposée sur le salon, servira aussi d'illustration concrète à une vie ultra connectée. La maison high-tech du futur permettra de contrôler ses équipements à distance, depuis son smartphone, de réduire sa consommation énergétique en fonction de ses besoins, mais aussi de profiter de réfrigérateurs, de pèse-personne ou de téléviseurs intelligents, ou de commander des appareils directement par la voix ou un geste de la main.

La 3D et les tablettes en vedette


Côté produits, le CeBit 2011 s'inscrit dans la lignée du CES de Las Vegas de la même année. Les tablettes, alternatives ou remplaçantes des ordinateurs portables, investiront les stands de nombreux constructeurs, tels qu'Asus, Acer, Toshiba ou AOC. Selon le cabinet IDC, le marché des tablettes tactiles, inauguré l'année dernière par l'iPad d'Apple, représentera plus de 44 millions de ventes cette année, contre 17 millions en 2010.

Autre tendance forte de ce salon, la 3D. Les images en relief sont désormais proposées dans la plupart des équipements high-tech : téléviseurs, appareils photo, caméscopes, PC portables, smartphones, tablettes, consoles portables, etc. Si les contenus sont encore peu nombreux, les fabricants proposent aujourd'hui aux consommateurs de créer leurs propres photos et vidéos en trois dimensions, et de les visualiser sur des écrans ne nécessitant pas de lunettes spécifiques. C'est le cas notamment sur la nouvelle gamme de produits de LG (téléphones mobiles et tablettes).

Le coup d'envoi du CeBit 2011 sera donné le lundi 28 février par la chancelière allemande Angela Merkel en compagnie du Premier ministre turc Recep Tayyip Erdogan, dont le pays est cette année l'invité d'honneur du salon.

(...)

< Les 10 documents précédentsLes 10 documents suivants >