Flux RSS

Infrastructure serveur

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

2924 documents trouvés, affichage des résultats 1861 à 1870.

< Les 10 documents précédentsLes 10 documents suivants >


(26/03/2008 15:37:02)

Le patron des processeurs chez Sun part pour Juniper

Après 20 ans de bons et loyaux services chez Sun Microsystems, David Yen, actuellement vice-président exécutif en charge de la division Microelecronics, part rejoindre l'équipementier réseau Juniper Networks à un poste qui reste secret pour l'instant. Cette annonce intervient à peine un an après la création de la division Microelectronics (en charge de la R&D des composants maison), la décision de recommencer à commercialiser à l'extérieur ces designs, le report d'un an de la sortie du processeur Rock UltraSparc RK, le choix du fondeur taïwanais Taiwan Semiconductor (TSMC) pour succéder à Texas Instruments et faire descendre le pas de masque des processeurs maisons à 45 nm. Vétéran chez Sun Microsystems, David Yen est perçu comme un des piliers de l'entreprise. Considéré comme l'un des meilleurs connaisseurs de tous les processeurs maison, il a aussi, entre autres, été appelé à diriger la division en charge des serveurs Sparc, puis la division stockage. (...)

(25/03/2008 17:46:41)

Marathon renforce la disponibilité des machines virtuelles

Annoncé à l'automne lors du dernier VMWorld, Everun VM, le système pour la continuité de service et la haute disponibilité des machines virtuelles de Marathon Technologies, est désormais disponible en version bêta, et sera commercialisée en avril. Cette application nécessite au moins deux serveurs physiques reliés entre eux et équipés de l'hyperviseur XenServer pour créer les machines virtuelles. Installé au dessus de l'hyperviseur, Everun VM clone les environnements invités à protéger sur les deux serveurs, et les met à jour en permanence de façon simultanée. Pour l'utilisateur final, tout se passe comme s'il n'y avait qu'une machine virtuelle. EverRun VM sera commercialisé seul à partir de 2000 dollars par serveur, et à partir de 4 500 dollars par serveur s'il faut y ajouter l'hyperviseur Xen. (...)

(25/03/2008 10:51:30)

Sun veut simplifier la virtualisation du poste de travail

Sun Microsystems a annoncé la disponibilité générale de Virtual Desktop Infrastructure 2.0 (VDI) qui permet de déployer et d'administrer des environnements de travail sur n'importe quel type de client (terminal de client léger, PC, PDA, smartphone, etc.), et ce quelque soit le type de système d'exploitation (Windows, Linux, Mac OS X ou Solaris). Il va même plus loin, en permettant à VDI 2.0 de s'appuyer non seulement sur son hyperviseur maison xVM server, mais également sur celui de son concurrent principal VMWare. Parmi les marchés ciblés avec ce produit, il y a les clients habituels de Sun - secteur public ou organismes financiers - mais également les opérateurs de télécommunications ou de centres d'appels. Sun explique notamment que la possibilité de créer des groupes d'utilisateurs partageant des environnements similaires leur permettrait de diminuer considérablement le nombre de licences dont ils ont besoin. (...)

(25/03/2008 09:18:48)

VMWare administre la virtualisation avec le PowerShell de Microsoft

La virtualisation bientôt plus simple à administrer en environnement Microsoft. C'est ce que promet VMWare, avec son VMWare Infrastructure (VI) Toolkit for Windows. Cette boîte à outils permet d'utiliser PowerShell, les commandes en ligne de Windows Server, pour administrer une infrastructure virtuelle à base d'ESX 3.x et de Windows Server 2003. VMWare précise avoir écrit plus d'une centaine de "cmdlets" (scripts) et supporte une communauté pour faciliter le partage. La version finale de VMware Infrastructure (VI) Toolkit pour Windows est promise pour le second semestre de cette année. (...)

(21/03/2008 17:47:46)

Le MIT distingue quatre technologies numériques

Le MIT (Massachusetts Institute of Technology) consacre le numéro de mars/avril de sa revue aux dix technologies naissantes en 2008 qui devraient presque à coup sûr "changer notre façon de vivre". Ces dix inventions se divisent en deux grandes catégories : le numérique et le vivant. Et parmi celles qui relèvent du numérique, quatre sont particulièrement remarquables. "Modeling Surprise". Dans les laboratoires de Microsoft, on envisage de modéliser l'inattendu. Cette modélisation implique le traitement d'énormes quantités de données, la modélisation des événements inattendus survenus par le passé, et la capacité d'apprentissage des systèmes. En cas de réussite, les perspectives sont immenses. Pour l'instant, elles commencent par une application d'information sur l'état de la circulation dans la région de Seattle. Les applications Web en local. Elles permettent d'avoir le meilleur des deux mondes : à la fois la permanence que confère l'exploitation des ressources d'un système personnel, mais aussi une remise à jour incessante dès que l'on est connecté. Le MIT a pris la peine de distinguer l'Adobe Integrated Runtime (AIR) sur ce sujet. "Reality Mining". Faire des téléphones mobiles de vrais mouchards décrit assez bien le projet baptisé "Reality Mining" par son promoteur. Considérant qu'un mobile est déjà une source d'information sur nos comportements (lieu, durée et destination des communications), il serait si simple d'utiliser ce terminal désormais proche de l'appendice numérique pour développer ses capacités à surveiller le comportement humain. La tendance est d'ailleurs irréversible. "Probabilistic Chips". Perdre un peu de précision dans le traitement d'un processeur peut faire gagner tellement d'énergie. C'est le pari de Krishna Palem qui s'est lancé dans la conception de processeurs qui trouveraient à être utilisés dans tous les systèmes fonctionnant sur batterie. Et le domaine d'application est aussi vaste que celui du traitement du signal, lorsqu'un peu "d'erreurs" dans le traitement de la voix ou d'une image n'est pas perceptible pas les utilisateurs. Ces puces ont déjà un acronyme : "Probabilistic complementary metal-oxide semi­conductor technology" (PCMOS). (...)

(21/03/2008 17:26:25)

Brainshare 2008 : Novell décrit une stratégie d'infrastructure modulaire

« L'informatique d'entreprise va changer et il faut que nous y occupions une place centrale », a déclaré Jeff Jaffe, directeur technique de Novell, en ouverture de Brainshare, la conférence utilisateurs de l'éditeur (qui s'est tenue à Salt Lake City, du 16 au 21 mars). Avec un maître mot, pourtant déjà maintes fois utilisé par de nombreux fournisseurs, « l'agilité », qui sera particulièrement déclinée sur la gestion des règles et des identités, au sein de l'offre d'infrastructure de Novell. Devant les quelque 5 500 participants, l'éditeur de Suse Linux a déroulé une nouvelle stratégie, baptisée Fossa, qui permettra aux entreprises de mixer et d'associer des machines physiques et virtuelles, en conjonction avec des outils d'administration (Novell ZENworks), des services de gestion d'identité, des logiciels de collaboration et des systèmes d'exploitation Open Source. Une annonce qui préfigure des améliorations sur son offre Linux, sur ses solutions de virtualisation (rachat de PlateSpin), sur les outils d'orchestration, de gestion des procédures et des identités, de la conformité, etc. Ron Hovsepian, le PDG de Novell, a de son côté mis l'accent sur l'optimisation des outils destinés aux postes de travail et aux serveurs, avec l'objectif de les intégrer dans les plateformes plus étendues développées par IBM et Microsoft. « Nous nous positionnons comme un composant au sein de ces grandes infrastructures d'entreprise, dans lesquelles nous voyons quels manques nous pouvons combler », a-t-il indiqué. [[page]] Optimiser Suse Linux pour la virtualisation Dans le cadre de Fossa, le système d'exploitation Suse Linux Enteprise devrait notamment intégrer les dernières technologies de virtualisation. Novell a également indiqué qu'il comptait s'appuyer de façon importante sur les travaux de la communauté OpenSuse. Toujours aux chapitres Linux et virtualisation, rappelons que Brainshare a été l'occasion d'annoncer le renforcement de la collaboration avec SAP. Suse Linux sera en particulier optimisé pour l'infrastructure de centre de données de l'éditeur de progiciels de gestion. Plus globalement, Fossa semble être un moyen pour Novell de rationaliser l'utilisation conjuguée de ses différentes offres d'infrastructure, de Linux à ZENworks, dans ce qui pourrait être appréhendé comme une seule et même architecture. Toutefois, le développement d'une infrastructure adaptable et flexible n'est par une démarche révolutionnaire. HP, IBM et Microsoft ont oeuvré dans ce sens depuis plusieurs années. Mark Levitt, analyste chez IDC, se demande si ce que Novell veut réaliser avec Fossa est fondamentalement différent de ce que les autres fournisseurs font déjà. « Cela ressemble davantage à une mise au point interne sur la vision stratégique et la feuille de route. Je ne pense pas que Fossa apporte un changement radical. Il s'agit plutôt de valider la direction qui a été choisie. »[[page]] Déployer à la demande Au coeur de Fossa, Novell veut utiliser les capacités de modularité de Linux pour créer ce qu'il appelle des « distributions physiques » (Distros), qui seront en fait des systèmes d'exploitation hôtes tournant sur des serveurs physiques. L'autre composante étant les distributions virtuelles (Virtual Distros), qui intégreront un système d'exploitation « invité », soit Windows, soit Linux, ainsi que le middleware et l'application. Les distributions virtuelles présenteront tous les standards permettant de se raccorder aux solutions d'administration, ainsi qu'aux outils de gestion des identités et de mise en conformité de Novell. Les éditeurs indépendants pourront ainsi coupler leurs applications aux Virtual Distros afin que les entreprises puissent les déployer. Ces Virtual Distros pourront être installées sur un serveur, puis copiées et déployées à la demande, de façon dynamique, en fonction des besoins. (...)

(20/03/2008 16:58:36)

Pour la NSA, la virtualisation crée de nouvelles menaces et de nouvelles solutions sécuritaires

Souvent décriée, la NSA (National Security Agency), agence de surveillance américaine, collabore régulièrement avec les industriels pour améliorer la sécurité des produits informatiques, tout en se ménageant un accès discret. Dernier sujet en date : la virtualisation. Sur ce sujet, la NSA a travaillé - entre autres - avec VMWare, IBM, AMD et Trusted Computing Group pour identifier les risques que pose cette technologie et comment y remédier. Pour Don Simard, directeur solutions commerciales à la NSA, le risque majeur concerne la puissance de calcul de certains composants d'un PC : « les cartes graphiques et réseaux ne sont après tout que des ordinateurs miniatures qui voient tout ce qui se passe dans les machines virtuelles. » Elles pourraient donc potentiellement héberger des spywares ou d'autres logiciels malveillants, qui contourneraient ainsi les mesures de sécurité classiques de la machine. Face à ce risque, AMD a introduit dans son protocole AMD-V, un « vecteur d'exclusion » qui indique quelle extension matérielle peut accéder aux machines virtuelles ou non. De même, Intel propose une architecture spécifique pour la virtualisation, Intel VT. Si la virtualisation peut être une menace, elle peut aussi apporter une couche de sécurité supplémentaire, en permettant l'installation d'une couche chargée de la sécurisation de l'ordinateur indépendante du système d'exploitation principal et de ses éventuelles failles. A condition, précise Don Simard, que cette couche ne soit pas elle-même compromise par une conception et une implantation médiocre sur les produits commerciaux. (...)

(20/03/2008 16:49:02)

IBM ouvre son premier centre 'cloud computing' européen à Dublin

Le 'cloud computing' a beau partir du principe que la puissance informatique peut être accessible à la demande au travers d'Internet, il vaut mieux dans la pratique être relativement proche du client. IBM vient ainsi d'ouvrir son premier centre de 'cloud computing' européen à Dublin. Pour Philippe Bournhonesque, qui dirige le division IBM Software en France, le 'cloud computing', ou informatique dans les nuages, est l'avatar ultime de « l'industrialisation du datacenter ». IBM s'estime le mieux placé pour conduire cette industrialisation, en offrant une plateforme matérielle et logicielle mutualisée ; c'est le programme Blue Cloud, annoncé en novembre dernier. En attendant que les entreprises confient aux opérateurs de 'cloud computing' des applications critiques - d'après Forrester, cela devrait prendre un à deux ans - IBM propose dans son centre dublinois un « Idea Factory for Cloud Computing », service déjà testé avec succès en Chine, offrant aux entreprises un outil de type réseau social pour mettre des idées en commun. IBM dispose déjà de trois centres Blue Cloud aux Etats-Unis et d'un en Chine (avec un second en préparation), et le programme de déploiement est chargé : Brésil, Afrique du Sud, Inde, péninsule arabique, Vietnam et Corée. (...)

(19/03/2008 12:21:52)

Nanochip développe une mémoire rivalisant avec les disques SSD

Comme les processeurs, les mémoires flash sont soumises à la loi de Moore. Elles arrivent également à leurs limites, en atteignant des finesses de gravure de l'ordre de 32 ou 45 nanomètres. Pour contourner le problème, une start-up californienne, Nanochip, vient de développer un nouveau prototype de mémoires basé sur des "micro-electro-mechanical systems" (MEMS) qui pourraient dépasser les 100 Go de données stockées par puce, loin devant les capacités des disques SSD (Solid State Disk) actuels. Pour arriver à ce résultat, la société mise tout sur des sondes chargées d'écrire et de lire les informations stockées dans la mémoire MEMS. Ces sondes, d'une taille n'excédant pas les 15 nanomètres dans les prototypes, mais qui devraient se réduire à moins de 10 nanomètres dans les versions commerciales, sont mobiles (au sein d'une grille intercalée entre les deux couches de stockage proprement dite). Elles peuvent ainsi accéder à 100 fois plus de données que dans une mémoire flash. Nanochip prévoit de passer à la commercialisation de ses produits en 2009, et voudrait atteindre les 1 To de stockage d'ici à 2012. (...)

< Les 10 documents précédentsLes 10 documents suivants >