Flux RSS
Réseaux
2191 documents trouvés, affichage des résultats 1 à 10.
| Les 10 documents suivants > |
(08/04/2013 17:20:32)
Télécom SudParis ouvre une formation sur les réseaux haut débit pour les apprentis
Télécom SudParis va ouvrir une formation sur les réseaux très haut débit accessible par la voie de l'apprentissage. Dès la rentrée 2013, les titulaires de DUT ou de BTS pourront s'y s'engager, en vue de décrocher un diplôme d'ingénieur de spécialité « Réseaux », délivré par la Commission des Titres d'Ingénieur (CTI). L'élève-ingénieur bénéficiera du statut d'apprenti pendant les 36 mois de sa formation. Les 1800 heures d'enseignement sont structurées en 3 domaines : sciences pour l'ingénieur (28%), culture d'entreprise et ouverture (32%) et spécialité réseaux (40%). Durant les deux premières années, l'alternance sera organisée en 3 jours en entreprise et 2 jours à l'école. En dernière année, outre les onze semaines de spécialisation, l'apprenti effectuera un stage de six mois en entreprise.
15 apprentis par an
Le cursus sera gratuit et l'apprenti percevra un salaire estimé entre 41% et 100 % du Smic selon les critères conventionnels. Le recrutement des apprentis se fera sur dossier, puis sur entretien de motivation et test d'anglais. L'objectif est de recruter 15 apprentis par an. Le dépôt des candidatures doit se faire avant fin mai. Pour délivrer ce cursus, l'école d'ingénieurs publique s'est associée au CFA EVE, centre de formation des apprentis et à l'ENSIIE, école associée à l'Institut Mines-Télécom.
(...)(30/07/2012 16:22:05)
Oracle achète Xsigo, spécialiste de la virtualisation du réseau
Afin de renforcer son emprise sur le cloud computing, Oracle a annoncé ce lundi avoir signé un accord pour acheter la société Xsigo, à l'origine d'une solution de supervision de réseaux hétérogènes. Les conditions de l'acquisition, qui devrait être finalisée d'ici quelques mois, n'ont pas été divulguées. L'annonce intervient une semaine après que VMware ait indiqué qu'il allait racheter Nicira Networks, un des concurrents Xsigo, pour 1,26 milliard de dollars. Comme Nicira, Xsigo s'attaque au goulot d'étranglement qui pénalise le cloud computing à la demande, c'est-à-dire les architectures réseau complexes, intégrées verticalement, fragiles et coûteuses. Les solutions de Xsigo reposent également sur le concept de SDN (Software Defined Networking). Le Software-Defined Networking permet à un contrôleur externe de diriger toute l'infrastructure de commutation et/ou de routage. Il permet de programmer et de configurer le logiciel au niveau de chaque élément du réseau sans intervention manuelle. C'est aujourd'hui l'un des sujets les plus brûlants dans l'industrie des réseaux.
La technologie Xsigo peut créer des pools virtuels de capacité réseau permettant ainsi aux ressources d'être livrées dynamiquement en fonction des besoins informatiques. Ses clients incluent Verizon, Softbank et British Telecom. Les outils de Xsigo seront combinés à la plate-forme Oracle VM, une technologie de virtualisation de serveur, selon un communiqué.
Reposer les limites du cloud
Cette année, Oracle a entamé une percée agressive dans le cloud computing avec un service de cloud public qui fournira des applications à la demande ainsi qu'un PaaS Java (Platform as a Service) et une base de données en ligne. L'approche d'Oracle pour le cloud computing repose en grande partie sur la virtualisation. L'expertise de Xsigo dans le domaine du réseau centrée sur l'augmentation des performances et les réductions de coûts dans les datacenter va permettre à Oracle d'utiliser la virtualisation comme un point de différenciation.
Le PDG d'Oracle, Larry Ellison, a par exemple, critiqué les architectures logicielles multi-tenant utilisés par les fournisseurs de cloud nombreux, qui permettent un certain nombre de clients de partager une seule instance d'application. Dans le cloud d'Oracle, les applications travaillent avec leurs propres machines virtuelles, à la fois pour plus de flexibilité dans les mises à niveau et pour plus de sécurité, a déclaré M. Ellison lors d'un événement plus tôt cette année. "La technologie virtuelle moderne est de savoir comment proposer plus de sécurité."
Le GPS européen Galileo bientôt en orbite
Le système Galileo disposera de 18 satellites opérationnels dans l'espace et commencera à fournir les premiers services de "GPS européen" aux usagers de l'UE à la fin de l'année 2014, a assuré mercredi le commissaire à l'Industrie Antonio Tajani. Deux satellites seront lancés le 28 septembre 2012 de la base de Kourou, en Guyane française, et viendront s'ajouter aux deux premiers lancés en octobre 2011, a-t-il indiqué lors d'un point de presse à l'issue d'une rencontre à Bruxelles avec les dirigeants des principaux groupes industriels impliqués dans le projet, dont Jean-Yves Le Gall, le patron d'Arianespace. Six autres suivront en 2013, puis huit autres en 2014, dont quatre lancés par Ariane 5 qui remplacera le lanceur Soyouz. La constellation devrait compter 26 satellites en 2015 et 30 en 2020.
Le programme aura coûté 5 milliards d'euros en 2015, ont précisé les services de M. Tajani. La Commission a demandé une ligne de crédit de 7 milliards d'euros pour Galileo dans le budget pluriannuel de l'UE pour la période 2014-2020, dont 1,5 milliards d'euros destinés à financer les lancements, ont-ils expliqué.
Ne plus dépendre des Américains et des Russes
Galileo est le programme de l'Union européenne pour le développement d'un système mondial de radionavigation par satellite sous contrôle civil européen. Il sera compatible et, pour certains de ses services, interopérable avec le système américain GPS et avec le système russe Glonass, tout en restant indépendant.
L'incertitude demeure en revanche pour le financement du programme de surveillance par satellite GMES sur la période 2014-2020, a reconnu M. Tajani. La Commission veut retirer du budget commun les 4,5 milliards d'euros nécessaires à ce programme et propose de régir son financement par le biais d'un accord entre gouvernements. La majorité des Etats s'opposent à cette démarche et huit pays -- France, Allemagne, Espagne, Finlande, Suède, Grande-Bretagne, Pays-Bas et Italie-- ont pris position en ce sens dans une lettre commune rendue publique en novembre 2011.
Un financement en question
Le GMES est devenu un otage dans la bataille qui oppose la Commission européenne et les Etats membres sur le budget européen. "La Commission n'entend pas renoncer", a averti M. Tajani. "Si les Etats ne veulent pas augmenter le budget commun, alors ils ne doivent pas nous demander d'augmenter nos engagements", a-t-il expliqué. L'enveloppe globale du budget de l'UE est fixée sur sept ans et constitue le principal mécanisme de redistribution au sein de l'Union.
Akamai vient accélérer le trafic des sites web de Dolce & Gabana
Dolce & Gabbana est une marque de produits de prêt à porter présente un peu partout dans le monde. Elle communique notamment via ses sites institutionnels et son magazine en ligne Swide. Les sites comportent évidemment de nombreux éléments multimédias comme des vidéos de défilés. Or les temps de chargement des pages des sites étaient tels dans certains pays que cela entraînait des abandons de la consultation.
Pour remédier à ce problème, la marque a décidé de recourir à un Content Delivery Network (CDN) afin de mettre ses contenus à disposition des internautes au plus près de leur lieu de consultation via des serveurs de cache. La solution choisie devait notamment permettre aux millions de visiteurs mensuels de charger les pages rapidement quel que soit le terminal employé (PC, smartphone, tablette...).
La solution choisie est celle d'Akamai Dynamic Site Accelerator. Le temps de chargement des pages est passé de 8,5 à 1,5 seconde en moyenne mondiale en gérant 87% du trafic de consultation à partir des serveurs de cache de la société. Le taux d'abandon (non-précisé) a considérablement chuté tandis que le taux de conversion (nombre d'achats sur nombre de consultation, chiffre non-précisé) s'est accru selon l'entreprise. Le coût du projet n'a pas été communiqué. (...)
Citrix sort la version 10 de son ADC NetScaler
De plus en plus, les entreprises veulent que leurs datacenters soient aussi performants que les clouds publics, avec des fonctionnalités d'adaptabilité automatique vers le haut ou vers le bas, et une gestion plus efficace pour la livraison des applications.
Ces controleurs de type appliance matériel ou virtuel permettent d'optimiser la livraison des applications aux utilisateurs. Grâce à des configurations logicielles ou matérielles, ils supervisent des fonctions très diverses, notamment les protocoles de bande passante et de sécurité, ce qui accèlère la livraison des applications aux utilisateurs, mais la rend aussi plus sûre et plus fiable. « Dans un environnement cloud, la demande d'applications peut changer rapidement et l'ADC doit tenir le rythme, » a déclaré Greg Smith, directeur senior du marketing produit pour la division Cloud Networking de Citrix.
3 usages principaux pour NetScaler 10
Axé sur l'évolutivité, NetScaler 10 utilise la technologie TriScale de Citrix dans trois domaines : le Scaling-Up, qui permet d'ajouter des utilisateurs sur un serveur ; le Scaling-In, qui permet une gestion unifiée des controleurs pour éviter l' « Application Sprawl » ; et le Scaling-Out, qui permet d'ajouter des serveurs à la ferme.
Le Scaling-Up fait réfèrence à des clients qui utilisent la pleine puissance des ADC pour traiter les demandes d'application. Traditionnellement, la configuration standard du contrôleur est associée à une haute disponibilité (HA) d'appariement : un premier ADC est couplé à un autre, pour palier à une défaillance éventuelle du premier. NetScaler 10 dispose d'une fonction d'identification et de gestion automatique des pannes, ce qui signifie que le logiciel détecte la panne quand elle se produit et bascule automatiquement la charge de travail sur un autre ADC. Cela permet aux entreprises d'utiliser à plein leur ADC, d'augmenter leur performance et élimine la nécessité de disposer d'un système traditionnel à châssis. « Il existe des dizaines de milliers d'appliance ADC, et la moitié d'entre elles fonctionnent au ralenti», explique Greg Smith.
Le Scaling-In consiste en une gestion unifiée des ADC afin d'éviter l'étalement d'application (Application Sprawl). Selon Citrix, de nombreuses entreprises souffrent de ce problème quand elles lient des applications spécifiques à une infrastructure dédiée. NetScaler permet la gestion unifiée de 40 appareils indépendants. Grâce au Scale-In, les administrateurs ont un meilleur contrôle sur les appareils. Enfin, le Scaling-Out permet d'ajouter des appareils aux déploiements NetScaler existants et de multiplier la capacité par 32.[[
La capacité de gestion unifiée des ADC de NetScaler, qui permet d'accéder à de plus haut niveaux en terme de capacité , permet également au logiciel de Citrix de se montrer plus pertinent avec les applications qu'il contrôle. Grâce à son regard sur les opérations de l'application, NetScaler peut offrir des fonctions de contrôle et d'analyse via une fonctionnalité nommée ActionAnalytics. Les entreprises peuvent surveiller et contrôler le comportement de l'utilisateur final, par exemple surveiller les URL de premier niveau sur un site, fournir des mesures sur les ressources utilisées par l'application principale et quelles adresses IP y ont accès. NetScaler permet aux entreprises de limiter certains clients, s'ils mobilisent par exemple trop de bande passante. Le prix du logiciel de Citrix démarre à 2 000 dollars.
[[page]]
Selon Joe Skorupa, VP et éminent analyste de Gartner, qui suit les questions liées à la convergence des datacenters, le marché des ADC est « extrêment concurrentiel ». De son point vue, c'est un peu surprenant, dans la mesure où cette technologie est connue depuis plus d'une décennie. « F5 tient 50% du marché. Il en est le plus gros acteur », a t-il déclaré. Sur ce marché, Citrix n'est qu'un des concurrents, à côté de Radware, A10 Networks et, dans une moindre mesure, de Riverbed. Mais, selon Joe Skorupa, « NetScaler apporte quelque chose de nouveau en matière de fonctionnalité et le produit est agressif en terme de prix ».
Cependant, cette capacité évolutive des ADC n'est pas vraiment tout à fait nouvelle. Radware, et les versions précédentes de Citrix, permettaient à de multiples machines virtuelles de faire tourner l'ADC en même temps et de l'adapter à la demande en fonction des besoins. Mais, selon l'analyste, « la nouveauté, c'est que Citrix a combiné toutes les fonctionnalités dans un seul pack ». De plus, cela tranche avec F5, qui n'offre pas de capacité évolutive, et permet seulement à ses clients d'augmenter la taille de leurs châssis modulaires en achetant du matériel supplémentaire et de le relier en cluster à l'ADC.
L'analyste pense que les fournisseurs de services et les grandes entreprises vont être très intéressés par les avancées offertes par NetScaler. « Cette annonce devrait inciter ceux qui s'intéressent à la question à comparer les différentes méthodes proposées par les fournisseurs », a t-il déclaré. « Certains clients préfèrent le hardaware traditionnel en châssis, pour garder le contrôle sur l'ADC. D'autres préfèreront un modèle logiciel sous licence, comme NetScaler, qui offre une fonctionnalité à-la-demande supplémentaire. » Surtout, Joe Skorupa pense que ces innovations vont faire tâche d'huile. « Quand un fournisseur arrive avec de nouvelles fonctionnalités, celui-ci prend une bonne avance sur ses concurrents. Mais généralement, elles finissent par être ajoutées par les autres fournisseurs. »
(...)(11/04/2012 14:27:09)Prêts pour le 802.11ac ? La 5e génération de WiFi arrive !
Les entreprises qui ont suivi le rythme de l'évolution des réseaux sans fil sont sans doute équipées aujourd'hui de routeurs bi-bandes et de cartes clients capablent de faire circuler des données cryptées sur les ondes à des vitesses supérieures à 100 Mbit par seconde, ou presque. Mais aucune bonne action ne reste impunie. En effet, un nouveau matériel basé sur la norme 802.11ac, en cours de finition, est sur le point d'arriver, et risque bien de faire passer les infrastructures sans fil existantes pour des réseaux poussifs.
Même si l'organisme de normalisation responsable de la définition du 802.11ac n'a pas encore fini d'en valider tous les éléments, les fabricants de semiconducteurs comme Broadcom, Quantenna et Atheros Qualcomm ont déjà mis au point des prototypes de chipsets 802.11ac (Broadcom a baptisé sa puce 5G Wi-Fi). Les deux sociétés sont étroitement impliquées dans la définition de la norme, et promettent de livrer des mises à jour du firmware pour corriger toutes modifications mineures ultérieures susceptibles d'être intégrées dans la norme, entre maintenant et le moment où elle sera définitivement ratifiée (c'est à dire probablement plus tard cette année ou début 2013).
Les normes WiFi se sont multipliées
Mais comment sommes-nous passés de l'IEEE 802.11n à l'IEEE 802.11ac ? La norme de base définie par le projet 802.11 s'enrichit d'une nouvelle lettre pour identifier chaque nouveau document technique, et ce jusqu'à la version 802.11z de la norme. On est donc passé du 802.11aa au 802.11ab, et maintenant au 802.11ac. Au risque de s'embrouiller un peu, il existe aussi une norme 802.11ad, mais elle n'est pas destinée à occuper la prochaine place dans les réseaux sans fil grand public. Connue sous le nom de WiGig, c'est une technologie à onde courte qui utilise la bande de fréquence à 60 GHz pour diffuser du contenu multimédia.
Contrairement au matériel réseau utilisant la norme 802.11n, qui peut fonctionner sur des fréquences de 2,4 ou 5 GHz, les périphériques 802.11ac fonctionneront exclusivement sur la bande des 5 GHz. La bande de 2,4 GHz offre une meilleure portée, mais le flux de données transitant via le WiFi se trouve en compétition avec une multitude d'appareils fonctionnant à une fréquence identique - depuis les fours à micro-ondes jusqu'aux des casques Bluetooth. La bande des 5 GHz comporte beaucoup plus de canaux, et dans la norme 802.11ac, chacun de ces canaux offre une bande passante de 80 MHz, soit deux fois plus que celle des canaux répondant à la norme 802.11n.
Une seule antenne pour l'émission et une pour la réception
Qui plus est, le 802.11ac utilisera un schéma de modulation qui permet de multiplier par quatre la quantité de données capables de s'adapter au signal d'une porteuse encodée. En 802.11n, la bande passante maximale par flux spatial est de 150 Mb/s, ce qui signifie qu'un routeur 802.11n équipé de trois antennes de transmission et trois antennes de réception peut fournir un débit maximum théorique de 450 Mb/s. En revanche, la bande passante maximale par flux spatial du 802.11ac monte à 433 mbps, et le nombre maximum de flux spatiaux passe de trois à huit. Ce qui situe le débit maximum théorique d'un réseau 802.11ac à plusieurs Gigabit Ethernet. Cependant, la première génération d'appareils sera limitée à deux ou trois antennes émettrices et réceptrices pour délivrer un débit maximal théorique de 866 Mb/s ou 1,3 Gb/s.
Comme on a pu l'observer avec les réseaux 802.11n, le débit réel sera probablement d'un tiers à une demi-fois moins rapide que les maximums théoriques. Néanmoins, même les appareils mobiles équipés de puces 802.11ac avec une seule antenne pour l'émission et une pour la réception - comme les smartphones et les tablettes - devraient offrir une bande passante deux fois plus élevée que celle permise avec les chipsets 802.11n des périphériques actuels. Compte tenu de la forte demande en bande passante pour faire tourner des applications de vidéoconférence et de Gestion de la Relation Client (CRM) par exemple, et dont l'usager s'est déplacé du bureau vers les terminaux mobiles, les réseaux 802.11ac vont devenir un élément essentiel de l'infrastructure mobile des entreprises de toute taille.
[[page]]
Pour surmonter la courte portée de la bande des 5 GHz, les puces 802.11ac vont utiliser la technologie des faisceaux pour la transmission et la réception. Cette technologie, optionnelle dans la spécification 802.11n, est devenue obligatoire dans la norme 802.11ac. La plupart des périphériques sans fil 802.11n actuels utilisent un mode omnidirectionnel pour la transmission et la réception du signal. Les signaux se propagent dans une série d'anneaux concentriques, à l'image des ondes que l'on crée en laissant tomber une pierre dans un étang. Avec la technologie des faisceaux, le routeur et ses clients ont une idée relative de l'endroit où ils se trouvent, de manière à concentrer les flux l'un vers l'autre. Sans cette technologie, les signaux se dispersent et s'annulent, ce qui réduit la bande passante totale. La puce qui utilise la technologie des faisceaux permet d'ajuster la phase des signaux pour surmonter ce problème, ce qui accroît sensiblement la bande passante utilisable.
La première génération de routeurs 802.11ac, comme le Trendnet TEW-811DR, seront des modèles bi-bandes, capables de prendre en charge les clients 802.11n sur la bande de fréquence 2,4 GHz et les clients 802.11ac sur la bande des 5 GHz. De tels appareils devraient être commercialisés vers le troisième trimestre de cette année. Des ordinateurs portables équipés de puces 802.11ac devraient arriver d'ici l'hiver prochain. Quant aux appareils mobiles, smartphones et tablettes, les premiers terminaux équipés de la nouvelle norme WiFi pourraient apparaître début 2013.
La WiFi Alliance, le consortium propriétaire de la marque WiFi, qui a pour responsabilité de vérifier que les produits WiFi interopérent correctement entre eux, prévoit de commencer son programme de certification pour la norme 802.11ac au début de l'année 2013.
(...)(05/04/2012 11:31:41)Kemp Technologies cherche à étoffer ses revendeurs en France
Créée en 2000 aux Etats-Unis, la société Kemp Technologies est spécialisée dans les solutions d'équilibrage de charge à destination du PME-PMI. « Nos produits sont basés sur une interface utilisateur très simple avec un prix attractif, essentiellement pour le marché SMB mais nous travaillons aussi les grands comptes » nous explique Jean-Claude Tagger, directeur pour la France. La société se développe également beaucoup dans l'environnement Microsoft avec une appliance Exchange et une certification Lync.
Depuis deux ans, Kemp Technologies s'implante en Europe. Elle dispose en Irlande d'un callcenter, d'un centre logistique et d'un centre de personnalisation. Maintenant, elle cherche à se développer plus fortement en France, avec l'arrivée aux manettes de Jean-Claude Tagger. Elle mise en particulier sur sa distribution en étant totalement en indirect. Le recrutement de grossistes est en cours, Kemp recherche également des revendeurs et les répartit en trois niveaux : agréé, authorized, expert. Ces deux derniers devant suivre des formations.
(...)(04/04/2012 10:39:00)Toulon Provence Méditerranée choisit une DSP pour son réseau très haut débit
L'agglomération de Toulon Provence Méditerranée regroupe 12 communes d'une surface de 37 000 hectares, 430 000 habitants et 27 000 entreprises. Pour renforcer son développement économique dans le cadre du programme Toulon Grand Projet Rade, elle a décidé de lancer le projet TPM Très Haut Débit. Une délégation de service public (DSP) a été signée le 2 avril 2012 à cette fin.
La délégation est d'une durée de 20 ans et impliquera un investissement de 10,74 millions d'euros dont 54% (5,9 millions d'euros) de financements publics. C'est une filiale dédiée d'Altitude Infrastructure, THD 83, qui est délégataire pour construire, exploiter et commercialiser le réseau. Celui-ci sera construit par Sogetrel.
D'ici mi-2013, la DSP prévoit la construction de 216 kilomètres de fibre et deux noeuds de raccordements optiques au backbone national d'Altitude Infrastructure. Cette première phase va entraîner une desserte de 63 zones et parcs d'activités économiques ainsi que de 187 sites publics (les 12 hôtels de ville, les collèges, les lycées, les hôpitaux, les sites militaires, etc.). Les extensions sont prévues au fil des besoins et de la rentabilité économique. Les établissements raccordés, publics ou privés, bénéficieront d'un débit symétrique garanti de 1 Gb/s. (...)
OBS et JTI renouvellent leur partenariat télécoms
L'opérateur Orange Business Services a annoncé hier le renouvellement d'un contrat d'externalisation d'envergure avec Japan Tobacco International (JTI), pour une durée de cinq ans et un montant supérieur à 100 millions de dollars. Cet accord prévoit qu'Orange fournira à JTI l'essentiel de ses services et de son infrastructure de télécommunication dans plus de 50 pays. A l'heure actuelle, relève Orange, JTI s'appuie déjà, depuis son siège de Genève, sur les solutions d'Orange dans différents domaines, comme les services managés LAN et WAN, le trafic voix et données, la sécurité, ou encore les centres d'appel et téléphonie IP.
Le premier partenariat entre Orange et JTI remonte à 1995, et un premier contrat d'externalisation pour différents services de télécommunication avait été signé en 2004. Orange avait par la suite remporté un nouvel appel d'offre WAN en 2009. Ces dernières négociations de renouvellement placent Orange dans une position très favorable pour ce nouveau contrat d'évolution vers un environnement mono-fournisseur. Diego De Coen, CIO de JTI, est d'ailleurs revenu sur la longévité de ce partenariat : «De telles relations à long terme sont aujourd'hui assez rares et la reconduction du contrat n'était pas acquise d'avance. Orange Business Services a parfaitement joué le jeu ».
ICTJournal.ch
| Les 10 documents suivants > |