Flux RSS

Infrastructure serveur

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

2924 documents trouvés, affichage des résultats 1541 à 1550.

< Les 10 documents précédentsLes 10 documents suivants >


(13/01/2009 10:05:48)

Dell achète encore des compétences dans le service

Dell a déboursé 12 M$ pour acquérir la division de la société Allin spécialisée dans les services associés à l'installation et à l'administration des logiciels Microsoft dans les datacenters américains. Le constructeur intègre une centaine de salariés sur les 180 que compte Allin. Leurs compétences portent plus particulièrement sur certains logiciels des gammes Microsoft Dynamics (l'offre de gestion de la relation client, Dynamics CRM, et les ERP GP et SL bien implantés outre-Atlantique), ainsi que sur son portail Sharepoint. L'acquisition se fait à un moment où Allin traverse une passe difficile. En septembre dernier, la société a clos son troisième trimestre sur une perte de 725 000 dollars sur un chiffre d'affaires en faible hausse de 3,5% à 5,9 M$. Allin, qui ne compte plus que 80 salariés, compte se focaliser sur les marchés verticaux de la finance et des voyages. Deux autres rachats dans le service en 2008 Après s'être converti tardivement au mérite de la croissance externe, Dell a fait l'emplette de près d'une dizaine de sociétés en deux ans. Parmi elles figurent des spécialistes du service comme Everdream, spécialiste de l'administration à distance, acquise en novembre dernier, et Silverback, elle aussi active dans l'administration à distance, achetée en juillet 2008. (...)

(12/01/2009 10:57:45)

L'Open Cloud Consortium veut promouvoir un cloud computing ouvert

En matière de cloud computing, la technique suit le marketing. Un groupe d'universités américaines* vient de créer l'Open Cloud Consortium (OCC), une association qui a vocation à améliorer les performances des technologies impliquées dans le cloud computing, à y promouvoir l'utilisation des logiciels libres et l'interopérabilité entre chaque implantation. "Notre but est qu'il ne soit pas nécessaire de réécrire les applications si l'on change de fournisseur" explique Robert Grossman, président de l'OCC et directeur du Laboratory for Advanced Computing (LAC) et du National Center for Data Mining (NCDM) à l'université de l'Illinois.

Mise à disposition d'un banc de tests


Robert Grossman annonce cinq axes de travail : - le développement de standards pour le cloud computing, d'interfaces et de frameworks pour l'interopérabilité entre les différentes implantations, - le support des logiciels Open Source pour le cloud computing, - le développement de tests de performances (benchmarks) pour le cloud computing, - la mise à disposition d'un banc de tests, l'Open Cloud Testbed, se composant de quatre sites reliés entre eux par une connexion Ethernet à 10 Gigabit, - et le soutien d'ateliers et d'événements sur le sujet.

Seul Cisco soutient l'OCC pour l'instant


L'OCC travaille avec les logiciels open source suivants : Hadoop, développé par le consortium Apache, et Thrift, originaire de Facebook. Thrift est un framework qui permet de développer des services à partir de plusieurs langages (C++, Java, Python, PHP et Ruby). L'OCC a aussi mis au point Sector qui utilise le protocole UDP et non TCP. Couplé avec Sphere, développé par le National Center for Data Mining, il délivre des performances deux fois supérieures à celle d'Hadoop qui repose sur TCP. Pour l'instant, seul Cisco, parmi les grands acteurs de l'industrie, apporte son soutien à l'OCC. Les autres (IBM, Microsoft, Oracle Amazon, Google...) ont, pour une raison ou pour une autre, moins d'enthousiasme à vouloir favoriser une standardisation du cloud computing qui profite surtout aux utilisateurs. Il reste à espérer que l'OCC parvienne à ses fins. (...)

(08/01/2009 17:31:06)

CES 2009 : De Seven à Server 2008 R2, Steve Ballmer dévoile le futur de Windows

Convergence. C'était le maître-mot de Steve Ballmer lors de la conférence qu'il a tenue hier, 7 janvier, au CES de Las Vegas. Alors que Microsoft n'a souvent juré que par l'environnement du PC, l'éditeur martèle qu'il « n'est désormais plus simplement question du poste de travail », mais de trois écrans interconnectés : le PC, le smartphone et la télévision. Et Steve Ballmer de poursuivre : « Microsoft transforme Windows de système d'exploitation pour PC en plateforme connectée, une démarche à la frontière des mondes du PC, du téléphone, de la télévision et du cloud. » La transformation de Windows s'illustre en premier lieu à travers Seven, le successeur de Vista. Nombreux sont les utilisateurs à avoir placé beaucoup d'espoir dans l'OS à venir après avoir essuyé tant de déception avec Vista. Ils pourront se faire une première idée dès demain, 9 janvier, avec la mise en ligne de la bêta publique du système d'exploitation. Sur scène, Steve Ballmer a insisté sur la facilité de créer un réseau domestique avec Seven et de partager des vidéos et des musiques entre les différents appareils ainsi connectés, du PC à la télévision. Deux univers en voie de rapprochement, selon Steve Balmer : « Au cours des prochaines années, nous aurons des TV plus sophistiquées et plus connectées, et nous assisterons à la chute de la frontière entre le PC et la télévision. » Pour plus de détails sur Seven, consultez notre article consacré au lancement de la pré-version de l'OS. Windows Server 2008 R2 en version bêta L'autre nouveauté dans l'univers Windows s'éloigne de la notion de convergence chère à Steve Ballmer, puisqu'il s'agit de Windows Server 2008 R2, dont la bêta vient d'être mise en ligne. L'OS destiné aux serveurs a été développé en parallèle de Seven, une proximité qui s'illustre dans la sortie simultanée des deux pré-versions. Ces OS sont en outre conçus pour donner le meilleur d'eux-mêmes lorsqu'ils fonctionnent ensemble. Ainsi, la brique DirectAccess de Server 2008 R2 simplifie les accès distants des postes clients utilisant Seven, en permettant à leurs utilisateurs de se connecter à leur environnement de travail de façon transparente, sans qu'il soit nécessaire de passer par un VPN. Au chapitre des innovations figure également la virtualisation des applications, qui autorise l'accès à des applications et des données à partir d'un ordinateur distant. L'utilisateur retrouve sur son bureau des icônes traditionnelles d'applications qui s'exécuteront de façon virtualisées, sans qu'il ne se rende compte que les applications ne sont pas sur son PC. Le boot depuis un disque virtuel [[page]] On le voit, la virtualisation est au coeur des préoccupations de Microsoft avec cette deuxième mouture de Windows Server 2008, qui intègre la v2 de Hyper-V. Les administrateurs pourront profiter du support de Live Migration pour migrer à chaud des machines virtuelles d'une machine physique vers une autre, et apprécieront certainement le démarrage d'une machine depuis un disque virtuel qui héberge l'environnement de travail complet. Avec la disparition de la distinction entre les disques physiques et les VHD (Virtual hard disk), Microsoft estime que l'administration de système tendra à se réduire à la seule administration d'une bibliothèque de disques virtuels. Live Essentials sur les PC Dell Enfin, entre l'annonce de la sortie de Halo 3 ou de Netflix (service de vidéo à la demande) sur Windows Mobile, Steve Ballmer a consacré quelques mots à la mise en ligne de Windows Live Essentials, un pack d'outils regroupant notamment Mail, Messenger, Writer et PhotoGallery. Si certaines de ces applications étaient jusqu'alors intégrées à Windows, Microsoft entend désormais laisser le choix à l'utilisateur de les installer. Ceux qui achèteront prochainement un PC des gammes grand public et PME de Dell n'auront cependant pas ce choix. Steve Ballmer a en effet annoncé un partenariat entre Microsoft et le constructeur texan pour que soient pré-installés Live Search et Live Essentials sur les PC de ce dernier. (...)

(08/01/2009 11:12:05)

Une seconde de trop pour Oracle CRS

Après le bogue de l'an 2000, parlera-t-on du bogue de 2008 ? Pour Oracle au moins, la réponse est oui. La seconde supplémentaire ajoutée au 31 décembre 2008 n'a pas été prise en compte par son logiciel Cluster Ready Service, et a entraîné le redémarrage intempestif des noeuds sur lesquels il était installé. Les scientifiques de l'IERS (Service International de la Rotation terrestre et des Systèmes de référence) ont ajouté cette seconde à la fin de 2008 pour que notre heure de référence (UTC, temps universel coordonné) reste synchronisé avec la révolution réelle de la Terre autour du soleil. Le 31 décembre dernier, les horloges du monde entier devaient donc indiquer 23 h 59 mn 60 s avant de finalement passer à 0 h 0 mn 0 s. Les NTP (Network Time Protocole) intégrés au CRS d'Oracle, eux, sont directement passés de 59 s à 0 s, remettant le programme à zéro sans prévenir. La décision de l'IERS a pourtant été prise et rendue publique le 4 juillet dernier. Trop tard, semble-t-il, pour Oracle qui n'a pas prévenu ses utilisateurs, ni fourni de solution à ce problème avant lundi dernier, quand certains utilisateurs se sont étonnés de ces redémarrages intempestifs. Ces derniers affectent plus particulièrement les versions 10.1.0.2 à 11.1.0.7 d'Oracle Server Entreprise Edition installées sur Solaris 64-bits avec CRS. Hormis ce redémarrage, la seconde fantôme n'a causé aucun autre incident. [Article corrigé, à 16h 07mn et quelques secondes, avec un merci à nos lecteurs attentifs qui - eux - n'ont pas abusé du champagne pendant les fêtes] (...)

(08/01/2009 10:46:16)

Sun acquière Q-layer et sa gestion d'infrastructure 'cloud'

Sun Microsystems achète Q-layer, un éditeur belge de solution d'automatisation de gestion d'infrastructure destinée au cloud computing. Les détails de l'acquisition n'ont pas été dévoilés, mais l'opération donne quelques éclaircissements sur la direction que prend Sun dans la grande compétition du 'cloud' qui s'annonce passionnante pour 2009. Q-Layer, fondée en 2005, propose en fait un ensemble d'outils pour bâtir, administrer et faire évoluer de façon simple et transparente des datacenters, isolés ou distribués, internes ou externes. L'éditeur belge a entre autres développé la plateforme NephOS, couche d'abstraction du datacenter, et VPDC (Virtual private datacenter), portail qui permet de créer de façon simple et graphique son infrastructure 'cloud'. Il ne s'agit pas de bâtir un cloud, mais de simplifier la mise en oeuvre de ressources, physiques ou virtuelles, distribuées. NephOS s'installe au dessus des infrastructures physiques ou virtuelles qui fonctionnent avec les OS et les hyperviseurs de Vmware, Xen, Sun et Microsoft. La plateforme s'appuie sur trois composants principaux. D'abord, un langage unique permet aux administrateurs de créer des scripts portables sur les environnements Linux, Windows et Solaris. Ensuite, un outil de modélisation propose de représenter, visualiser et gérer la topologie du datacenter. Enfin et surtout, le Data Center Abstraction Layer (DAL), comme son nom le laisse entendre, constitue le coeur de la couche d'abstraction. C'est ce système qui crée la logique d'automatisation et d'orchestration du datacenter. Il évite à l'administrateur de devoir agir directement sur des ressources physiques ou virtuelles identifiées de l'infrastructure. En lieu et place, il propose des fonctions de haut niveau dans le système, comme 'démarrage', 'arrêt' ou 'backup', qui déclencheront un enchaînement automatisé d'actions vers les ressources concernées. Ces dernières peuvent être par exemple des hyperviseurs, des VLANs ou des systèmes de gestion de fichiers. Une couche d'abstraction de l'administration physique du datacenter Le DAL gère en permanence la réservation des ressources ('provisioning') du datacenter de façon cohérente et en considérant les serveurs avec leur équipement complet : connectivité, bande passante et stockage, mais aussi les services. L'orchestration des ressources tient également compte des éléments nécessaires à l'intégration et à la configuration du réseau, de la sécurité, des sauvegardes et des niveaux d'accès des utilisateurs et des administrateurs. Le portail VPDC, quant à lui, s'exécute au dessus de NephOS pour que les utilisateurs finals définissent, déploient et fassent évoluer leur propre datacenter virtuel en fonction des besoins du moment, par de simples drag-and-drop d'icônes représentant les ressources (serveurs, stockage, réseau et applications). VPDC propose en quelque sorte aux entreprises de bâtir et de gérer leur infrastructure de cloud en libre service. Plutôt que d'acquérir des racks ou des serveurs physiques, l'utilisateur achète un ensemble intégrant puissance CPU, mémoire, capacité de stockage et capacité réseau. A partir de ces éléments, il bâtit son datacenter virtuel sans toucher aux machines physiques. Reste à trouver les applications pour ce type d'environnements... Même si, a priori, le SDK (kit de développement logiciel) de Q-Layer promet le déploiement de ce que l'éditeur appelle fort opportunément des CloudApps. (...)

(07/01/2009 17:35:14)

Intel revoit à la baisse ses prévisions du quatrième trimestre

Intel s'attend à une chute de 23% de son CA pour le quatrième trimestre fiscal 2008 par rapport à la même période l'année précédente, suite à une baisse de la demande de processeurs. Selon le fabricant de puces, son CA trimestriel atteindrait 8,2 Md$, soit également 20% de moins que le trimestre précédent. Intel révise ses attentes une semaine avant la présentation de ses résultats prévue le 15 janvier prochain. Cette annonce intervient alors que les entreprises high-tech subissent de plein fouet la crise économique globale, avec un ralentissement des ventes de logiciel et de matériel. Intel a aussi prévenu qu'il subirait une perte plus importante que prévu dans certains investissements réalisés dans d'autres entreprises. Il signale une provision pour dépréciation d'actifs de 950 M$ au quatrième trimestre, liée à ses investissements dans Clearwire. Intel était une des cinq entreprises à avoir investi 3,2 Md$ l'an dernier dans l'opérateur Wimax avec Google, Comcast, Time Warner Cable et Bright House Networks. Le cours de bourse de Clearwire a atteint un pic de 17$ par action en février 2008 avant de chuter de façon constante. Mercredi, il dépassait à peine 5$. En tout, Intel prévoit désormais une perte de 1,1 à 1,2 Md$ due à des investissements dans d'autres entreprises, alors qu'il pensait qu'elle ne dépasserait pas 50 M$. L'entreprise estime par ailleurs que ses dépenses en R&D se limiteront à 2,6 Md$ alors qu'elles devaient représenter 2,8 Md$. Et elle estime enfin que ses charges dues à la restructuration et à la détérioration de ses actifs se monteront à quelque 250 M$. (...)

(07/01/2009 12:40:51)

Infiniband réussit haut la main le test de la longue distance

Le protocole Infiniband est couramment utilisé pour la connexion de clusters de serveurs dans les datacenters ou les supercalculateurs. Il a été conçu pour assurer une communication simple et efficace sur courte distance. Pourtant, selon le site américain Goverment Computer News, des chercheurs du département de l'énergie du laboratoire Oak Ridge National (ORN) ont testé le protocole entre deux machines distantes de près de 14 000 km en soutenant un débit moyen de 7,34 Gbps. Le même essai réalisé sur HTCP (Hyper Text Caching Protocol) n'a jamais permis de dépasser 1,79 Gbps. Plus précisément, les chercheurs ont constaté que le débit sur HTCP, élevé au départ (9,21 Gbps sur 300m), s'est dégradé à mesure que la distance s'est allongée. Le débit Infiniband est, lui, resté relativement constant. Les tests ont été réalisés sur une liaison optique à 10 Gbps dédiée, qui relie Oak Ridge dans le Tennessee et Sunnyvale en Californie, en passant par Atlanta, Chicago et Seattle. Les chercheurs concèdent à ce propos que l'utilisation d'une ligne spécialisée a défavorisé HTCP. TCP/IP a en effet été conçu pour le partage de trafic. Le laboratoire a utilisé à chaque extrémité du réseau des commutateurs Infiniband de la gamme Longbow de Obsidian Research. La société s'attèle justement à proposer une utilisation longue distance du protocole. Avec le succès des environnements de simulation entre autres, les grands laboratoires de recherche et leurs supercalculateurs ont de plus en plus besoin d'échanger des quantités massives de données sur longue distance. Le Cern (Organisation européenne pour la recherche nucléaire) à Genève, par exemple, va échanger dans le monde entier les petaoctets de données issus des expériences de l'accélérateur de particules LHC (Large hadron collider). Or, TCP/IP ne donnerait pas toujours satisfaction dans de telles conditions en termes de débit autant que de fiabilité du transfert. Toutes les solutions de rechange comme Infiniband sont ainsi les bienvenues. (...)

< Les 10 documents précédentsLes 10 documents suivants >