Flux RSS
Infrastructure serveur
2924 documents trouvés, affichage des résultats 761 à 770.
| < Les 10 documents précédents | Les 10 documents suivants > |
(19/11/2010 16:23:00)
Osiatis prévoit de recruter 500 informaticiens
La société de services Osiatis (3 000 collaborateurs) annonce un plan de recrutement ambitieux pour l'année 2011. Pour accompagner la montée en gamme de ses offres d'infrastructure telles que le conseil, l'ingénierie et l'infogérance, le groupe prévoit d'embaucher 350 personnes, dont 60% d'ingénieurs. Les profils recherchés sont des consultants, des architectes et des experts techniques, débutants et confirmés. Des postes en virtualisation serveur et poste de travail, annuaires d'entreprise, messageries et supervision systèmes et réseaux sont également ouverts. Le groupe qui entend parallèlement se développer dans le secteur du cloud computing recherche aussi une trentaine de spécialistes du domaine.
Par ailleurs, la filiale Osiatis Ingénierie, spécialisée en développements applicatifs nouvelles technologies, envisage d'intégrer 150 ingénieurs : il s'agit de chefs de projets, de consultants MOA en environnements Java/JEE, .Ner et Open Source.
(...)
Des start-ups européennes sur le cloud s'affrontent pour séduire les investisseurs
Les 25 entreprises finalistes ont été sélectionnées parmi 234 startups candidates impliquées dans le domaine du cloud en Europe. Un premier écrémage effectué par le Comité de sélection des ETT avait déjà réduit la liste initiale à 85 entreprises appartenant à 16 pays européens. Après examen de leur business plan, le Comité a retenu les 25 entreprises qu'elle estime être les plus prometteuses et novatrices, invitant leurs PDG à présenter leur vision et leurs stratégies devant de gros investisseurs internationaux, des patrons de l'industrie technologique, et des fournisseurs de services IT.
Parmi les entreprises sélectionnées, 20 cherchent un financement et/ou des partenariats internationaux pour accompagner leur expansion et leur croissance, et 5 sont en phase de démarrage. Sur les 25 entreprises finalistes, 6 sont basées au Royaume-Uni et en Irlande, 5 viennent du Benelux, 5 d'Europe centrale (Allemagne-Autriche-Suisse), 3 d'Espagne, 3 de France, 2 de Scandinavie et une de Russie. Elles ont été réparties entre entreprises Software-as-a-Service - qui ont initié de nouvelles offres grâce au cloud - et celles qui fournissent des technologies de rupture de type Infrastructure-as-a-Service et Platform-as-a-Service, qui peuvent contribuer à accélérer la migration de l'IT traditionnel vers l'informatique en nuage.
En faisant l'énoncé des candidats retenus, Pierre Liautaud, Président du Sommet ETT Cloud & TIC 2.0 2010, a déclaré: « Au cours des six derniers mois, beaucoup d'évènements ont ouvert la voie à une plus large adoption du cloud par les entreprises de toutes tailles et par le secteur de l'industrie, pas seulement aux Etats-Unis, mais aussi en Europe et dans le reste du monde. Les principaux acteurs investissent des milliards de dollars dans l'infrastructure sous-jacente et la plateforme de services, poussant ainsi les innovateurs et les entrepreneurs à imaginer de nouveaux modèles économiques viables. Ce sommet est un moyen unique pour enrichir la communauté cloud en aidant les start-ups en Europe, quelle que soit la phase de développement dans laquelle elles se trouvent. »
Illustration: Runonmyprocess.com, un des finalistes français du concours
(...)(19/11/2010 14:00:23)Le cloud, outil idéal pour casser les mots de passe
Le pirate a à sa disposition deux grandes sources de capacité de calcul à la demande : les botnets constitués par les ordinateurs des utilisateurs et l'Infrastructure-as-a-Service (IaaS) proposée par des prestataires de services. Chaque système peut offrir du calcul à la demande, adapté pour réaliser des attaques par force brute. Les réseaux de zombies ne sont pas fiables, ils sont hétérogènes et prennent plus de temps à démarrer. Mais ils ne coûtent rien, et comme ils sont composés par des centaines de milliers de PC, ils peuvent s'adapter à des besoins énormes. Comparativement, une offre commerciale de cloud sera plus rapide à mettre en oeuvre, ses performances sont prévisibles et les pirates peuvent se l'offrir avec une carte de crédit volée. Si l'on comprend qu'un attaquant peut avoir accès au calcul haute performance à un coût dérisoire, on peut constater que le rapport entre contrôle de sécurité et méthodes d'attaque est en train de changer de manière spectaculaire.
Prenons le cas des mots de passe, par exemple. La longueur et la complexité d'un mot de passe conditionne l'effort nécessaire pour élaborer une attaque en force brute. Supposons qu'un attaquant ait accès à la valeur « hashé » d'une base de données où sont stockées les mots de passe, et que celle-ci soit installée derrière un serveur web ou un serveur d'authentification mal protégés. L '« empreinte », généralement basée sur un algorithme de type Secure Hashing Algorithm, ne peut pas être contournée. Mais avec une attaque de type force brute, il devient possible de lancer un test sur toutes les valeurs d'un mot de passe. Cette attaque se produit loin du serveur d'authentification et n'est donc pas limité par le mécanisme qui bloque un log-in après trois tentatives. Il faudrait une éternité pour essayer toutes les combinaisons possibles d'un mot de passe de huit caractères sur un processeur simple core - sans doute des mois, voire des années, en fonction de la complexité de l'algorithme et du mot de passe. Mais ce calcul est hautement parallélisable : en fonction des besoins, la recherche peut être divisée en autant de «batchs» et répartie entre plusieurs processeurs qui effectuent les essais en parallèle. En utilisant un botnet ou un cloud IaaS, un attaquant peut désormais obtenir, en quelques minutes ou en quelques heures, le résultat de ce calcul qui aurait pris des années.
2,10 dollars et 49 minutes pour casser un mot de passe
Un chercheur allemand a fait la démonstration de la technique avec l'Elastic Compute Cloud d'Amazon et son nouveau service de cluster informatique conçu pour des applications graphiques très gourmandes en temps processeur. Le traitement graphique et le crack de mots de passe sont très similaires du point de vue algorithmique : ils mettent tous deux en oeuvre des mathématiques matricielles et vectorielles. Les résultats sont assez édifiants : en utilisant seulement 49 minutes d'une instance de cluster unique, le chercheur a été capable de cracker des mots de passe longs de six lettres. Coût de l'expérience : 2,10 dollars pour une heure de calcul (la base d'utilisation étant d'une heure minimum).
Avec l'avènement du cloud computing, comme c'est le cas avec tout autre type de technologie, les « bad guys » se retrouvent également avec un nouvel outil. Quand on compare le rapport risques/bénéfices à l'évaluation coûts/avantages en matière de contrôle de la sécurité, il faut désormais tenir compte du prix très bas de l'informatique pour tous - pirates inclus. Les mots de passe, les clés de chiffrement des systèmes sans fil, le chiffrement des données non opérationnelles et même le vieil algorithme SSL doivent être réévalués à la lumière de ces changements. Ce que l'on pensait être « impossible » hier est devenu accessible au pirate ordinaire.
Web 2.0 : Benioff, Maritz et Jassy apôtres du cloud ouvert
«Le cloud computing est une chose sacrée», a déclaré Marc Benioff au Sommet Web 2.0 à San Francisco, où il a participé à une table ronde animée par le co-président de la conférence Tim O'Reilly. Ces commentaires sont extraits d'une défense ardente du cloud, en faisant valoir que ce modèle a permis à de nombreuses start-ups de développer des produits et services sans avoir à dépenser des sommes énormes sur les infrastructures.
Parce que, à son avis, le cloud simplifie et réduit le coût d'accès aux ressources informatiques, il a «démocratisé» l'innovation dans l'industrie IT. Il indique également que ce modèle doit être protégé contre les efforts déployés par les fournisseurs d'enfermer les utilisateurs dans leurs plates-formes hébergées et augmenter les prix. Comme à son habitude, il a égratigné son ancien patron Larry Ellison, PDG d'Oracle, dont les vues sur le cloud sont selon lui erronées.
Ne pas verrouiller le cloud
Andy Jassy, vice-président à Amazon Web Services et Infrastructure, ainsi que Paul Maritz, CEO de VMware, se sont également exprimés en faveur du maintien des plates-formes ouvertes pour le cloud. « Vous ne voulez pas qu'un des éléments deviennent un point de contrôle », a déclaré Paul Maritz. Andy Jassy dit qu'Amazon a conçu dès le début son infrastructure hébergée et des services de développement d'applications d'une manière qui permet aux clients et aux développeurs de prendre facilement leurs applications et données auprès d'un autre fournisseur si elles le désirent.
L'ensemble des participants ont convenu que les fournisseurs développent de plus en plus de services dans le cloud. Cependant, le sens de ce terme est galvaudé et s'utilise pour la technologie qui n'incarne pas nécessairement un aspect ouvert et une facilité d'utilisation qui leur apparait essentiel. (...)
IDC: les infrastructures pour datacenters balbutient au 2eme trimestre 2010
Au deuxième trimestre 2010, dans le monde, ce marché a montré de petits signes d'amélioration. Par rapport au même trimestre de l'année précédente, ce marché diminue en valeur de 1,8%, mais progresse en volume de 2,6%. En progression séquentielle (par rapport au 1er trimestre de 2010), les deux signaux sont au vert. En valeur, il est en hausse de 6,9%, en volume de 3,6%.
« Cette reprise du marché des infrastructures au 2ème trimestre reflète celle de l'économie, remarque Katherine Broderick, analyste de recherche principal, serveurs d'entreprise d'IDC. De nouveaux centres sont en construction, tandis que d'anciens centres de données sont rénovés ».
Par fournisseurs, le segment du refroidissement est détenu à 47% par deux sociétés : Emerson network power et Libert. APC Schneider, reste n°1 en nombre d'unités vendues sur le segment de la distribution électrique avec 29,1% de parts de marché. Le segment des racks pour centres de données est dominé par HP, avec 22,5%, qui vient de dépasser Emerson. Dans les centres de données d'alimentation sans coupures Emerson progresse de 0,8% avec 30,2% de parts de marché. (...)
Microsoft transforme Windows Azure en supercalculateur
Le premier Service Pack pour Windows HPC Server 2008 R2, sera livré avant la fin de l'année. Il permettra aux clients de connecter leurs systèmes informatiques haute performance situés sur site à Windows Azure, lequel apporte « une offre à la demande et des capacités pour des applications de calcul haute performance, » comme l'a précisé Microsoft. L'entreprise fournira aussi une ressource Azure pour les scientifiques qui n'ont pas besoin d'installer Windows HPC Server. Le service donnera la possibilité à la technologie BLAST utilisée par les scientifiques du National Center for Biotechnology Information travaillant dans la recherche sur le génome humain, de travailler sur Azure. Lors de la conférence SC10, la firme de Redmond doit d'ailleurs faire la démonstration de l'application NCBI BLAST sur Windows Azure, et montrer comment elle effectue 100 milliards de comparaisons de séquences de protéines sur son système.
Selon l'éditeur, l'intégration du nouveau Service Pack Windows HPC à Azure introduit une différence de taille entre son système et les systèmes comparables comme Elastic Compute Cloud d'Amazon : c'est le seul en effet à offrir possibilité de réaliser des calculs haute performance à la fois sur site et dans le service Cloud. « Amazon ou Google ne proposent pas de capacité de calcul sur site,» a déclare Bill Hilf, directeur général chargé de la technique informatique chez Microsoft. « C'est un avantage important en notre faveur », a t-il ajouté.
Le logiciel HPC est « simplement un répartiteur de tâche qui sait comment découper les charges et les distribuer à travers un ensemble de serveurs, » explique encore Bill Hilf. « L'intégration de Windows HPC Server à Azure permet au client d'un centre de calcul « de communiquer avec le système Windows Azure » et de choisir la manière dont il souhaite répartir la charge de travail entre les deux systèmes, » ajoute t-il. Cela a un sens pour les charges de travail qui présentent des pics importants en besoin de calculs mais temporaires.
Une initiative pas isolée
D'une certaine manière, Microsoft utilise le concept de « cloud-bursting, » c'est à dire la possibilité d'accéder automatiquement aux ressources informatiques du cloud quand les applications ont des besoin de puissance supplémentaire pour le traitement de leurs données, et l'applique au monde du calcul haute performance. « Cette demande pour le « cloud-bursting, » figurait en tête des attentes de nos clients HPC» a déclaré Bill Hilf.
En ce qui concerne NCBI BLAST, le directeur général fait remarquer que le code est dans le domaine public, mais affirme que la possibilité de réaliser des calculs BLAST sur le service Azure permettra aux scientifiques de lancer des quantités énormes de requêtes sans avoir à investir dans un matériel coûteux. « En plus du portage de BLAST dans Azure, Microsoft a développé des interfaces utilisateurs web afin de faciliter la mise en route des opérations de calculs, » a t-il fait savoir.
Le coût pour faire tourner BLAST sur Azure sera le même que pour exécuter n'importe quelle charge de travail. Plus le client utilise de la puissance de calcul, plus le prix augmente. Par exemple, la requête nécessaire à BLAST pour effectuer les 100 milliards de comparaisons, mobilisant 4 000 coeurs sur une période de six jours environ, a couté moins de 18 000 dollars. BLAST est la première application HPC offerte par Microsoft dans son service Azure, mais d'autres applications suivront, comme l'a déclaré le vendeur. Malgré l'absence d'autres offres spécifiques, Microsoft a indiqué que certains clients avaient déjà commencé à gérer leurs propres charges de travail HPC sur le cloud Azure.
Brocade unifie réseau et stockage pour les environnements virtualisés
L'équipementier a présenté sa dernière gamme de commutateurs VDX. Elle est le fruit de la finalisation de Foundry Networks et entend bien concurrencer directement Cisco avec son UCS. Les produits présentés sont livrés avec un ASIC chargé d'apporter le logiciel Virtual Cluster Switching, autorisant le regroupement jusqu'à 10 commutateurs, géré au sein d'une seule interface.
« Les applications d'aujourd'hui impliquent plusieurs clusters, la technologie Web 2.0 et la communication entre les serveurs vont souvent de pairs. Ce besoin implique la création d'un nouveau réseau où les technologies plus anciennes comme Spanning Tree ne sont plus adaptées », a déclaré Doug Ingraham, vice-président de Brocade des produits Datacenter. Le constructeur se base donc sur la technologie TRILL (Transparent Interconnection of Lots of Links ) capable de construire des fabriques Ethernet. En fusionnant les couches d'accès et d'agrégation des réseaux, elles donnent la possibilité de créer un réseau maillé. « Cela permet d'avoir une évolutivité des serveurs dans un environnement virtualisé sans ajouter la complexité du réseau. »
Le premier commutateur Brocade de cette gamme est le DVX 6720, qui se décline en deux modèles: un 1U, unité 24 ports et un 2U, le châssis 60 ports. Les commutateurs peuvent être configurés avec des connectivités 10G ou Gigabit Ethernet.
Assurer la convergence entre le réseau et le stockage
« Un groupe de 10 commutateurs VDX peut comprendre jusqu'à 600 ports 10G Ethernet et peut prendre en charge 8 000 machines virtuelles », souligne Douglas Ingraham et d'ajouter « dans ce type d'architecture, les VM peuvent être déplacées entre serveurs physiques sans interruption ». La migration fonctionne en copiant les VM vers un nouveau serveur physique et en redirigeant automatiquement le trafic réseau. Les commutateurs sont compatibles avec n'importe quel hyperviseur sur le marché, VMware, Citrix et Microsoft.
Les commutateurs Brocade proposent aussi pour la première fois un équipement de bout en bout en Fibre Channel over Ethernet (FCoE), permettant à des blocs de données d'être sauvegardé d'un réseau local (LAN) à un SAN. Les administrateurs peuvent également utiliser le protocole iSCSI pour la sauvegarde des fermes de serveurs Wintel (Windows et Intel). L'équipementier propose aussi un service pour aider les utilisateurs à concevoir et mettre en oeuvre une architecture de réseau pour leur environnement de serveur virtuel avec les commutateurs VDX.
La livraison du DVX 6720 est prévue à partir de décembre prochain. Un modèle de base commence à 10 700 dollars, mais les utilisateurs peuvent passer par l'achat de licences supplémentaires pour 10 ports à la fois.« Donc, vous pouvez acheter un commutateur 60 ports et et n'utiliser que 30, 40 ou 60 ports. Vous ne payez que pour ce que vous utilisez » conclut Doug Ingraham.
Le groupe Altitude se diversifiera dans les datacenters
« La vocation d'Altitude Télécom était d'être consolidé avec un opérateur plus important » glisse Jean-Paul Riviere son P-dg et fondateur. Pas de surprise donc dans l'opération de vente à Completel annoncée en début de semaine. « Maintenant, dans un an ou dans deux ans, l'opération devait se faire ». Depuis douze mois, le Groupe Altitude souhait se défaire de sa filiale télécoms, pourtant fort prospère. Calyon était mandatée pour réaliser un deal.
Le rapprochement avec Completel est logique en terme de compétences souligne Jean-Paul Riviere, « ils sont forts sur la voix, nous sur la data, ils ont des infrastructures, alors que nous travaillons avec d'autres opérateurs, ils déploient même le 1er réseau alternatif à France Télécom ». L'économie est donc évidente. Completel récupère également un parc client orienté grands comptes, Altitude Télécom est connu pour ses grands VPN, en moyenne chaque client compte 16 sites.
Tous les salariés repris
L'intégration devrait se faire rapidement. Seule réserve, l'Autorité de la concurrence doit encore valider l'opération, ce sera fait d'ici cinq semaines. Les salariés d'Altitude Télécom seront tous repris. Les instances représentatives du personnel ont été informées. Et la direction de Completel souhaite renforcer le site historique d'Altitude à Rouen.
Dans cette opération, Le Groupe Altitude que Jean-Paul Riviere dirige avec sa fille s'est défait de 65 millions d'euros de chiffre d'affaires pour en conserver une cinquantaine. Il va opérer dans deux directions : les infrastructures et les datacenter. Sur le premier point, ce sera avec Altitude Infrastructure, filiale engagée en longue durée auprès des collectivités locales au travers de DSP. Elle compte elle-même une filiale, Wibox, opérateur de services Wimax. La partie datacenter est en cours de développement. Le groupe compte déjà un centre à Rouen qui sera loué à Altitude Télécom - Completel. D'autres centres sont en projets. (...)
| < Les 10 documents précédents | Les 10 documents suivants > |