Flux RSS
108538 documents trouvés, affichage des résultats 24811 à 24820.
| < Les 10 documents précédents | Les 10 documents suivants > |
(14/04/2006 20:10:34)
Le dégroupage total progresse fortement au détriment de France télécom
Plus de trois millions dont près d'un million en mode total : c'est le nombre de lignes dégroupées désormais recensées par l'Arcep - autorité en charge de la régulation du secteur télécoms en France - pour le 1er trimestre 2006. Grand perdant de la poussée du dernier trimestre : France Télécom. Selon le communiqué de l'Arcep "la croissance du parc d'accès dégroupés a essentiellement concerné le dégroupage total, un mode de dégroupage qui permet à l'abonné de ne plus payer d'abonnement téléphonique à France Télécom. Avec près d'un million d'accès, le dégroupage total représente aujourd'hui 30 % du parc d'accès dégroupés, contre 7 % il y a un an." Reste que les possibilités les plus intéressantes - celles concernant le dégroupage total donc - sont inégalement réparties sur le territoire. "Avec 48 nouveaux NRA (Noeud de Raccordement d'Abonnés) dégroupés au cours du 1er trimestre 2006, la couverture nationale du dégroupage se maintient à environ 54% de la population". Désormais, les opérateurs alternatifs disposent de quelque 1 155 sites de dégroupage. Pour une couverture totale - notamment concernant les zones les moins peuplées - il va sans doute falloir essentiellement compter sur les initiatives publiques. L'Arcep constatant que "la tendance observée au cours de l'année 2005 se confirme : près de la moitié des nouveaux sites dégroupés l'a été dans le cadre des projets de réseaux d'initiative publique." (...)
(14/04/2006 17:17:28)Les infrastructures font chuter le chiffre d'affaires d'Arès
Le groupe Arès a publié pour son exercice 2005-2006 (clos le 31 mars) un chiffre d'affaires en recul de 3,8% à 465,5 ME. Il s'agit de la première décroissance enregistrée par la SSDI depuis plusieurs années. Toutefois, au cours des deux années précédentes, sa progression s'était avéré particulièrement faible avec un chiffre d'affaires en hausse seulement de 2,6% pour son exercice 2003-2004 puis de 1,9% en 2004-2005. L'entreprise doit sa contre-performance de l'année dernière à son pôle architectures et infrastructures dont les revenus ont subi une baisse de 10,9%. La décroissance de cette activité est particulièrement sensible sur le segment des produits Unix, de stockage et des grands systèmes. Lors du dernier trimestre, leurs ventes ont chuté de 54,1% tandis que celle des PC baissait de 2,5% dans un mouvement volontairement impulsé par Arès. Ses sources de satisfactions, la SSDI les trouve au niveau de son pôle Logiciels et services qui affiche des revenus en hausse de 18,7%, dont 11,7% pour les seuls services. Durant l'exercice 2005-2006, cette branche a généré 30,5% de son chiffre d'affaires global contre 24,8% un an plus tôt. Selon Arès, cette proportion devrait passer à 37% (sur des prévisions de 425 ME de chiffre d'affaires) en 2007-2008, exercice durant lequel la société table sur un retour à la rentabilité. Cette objectif s'inscrit dans la plan de réorganisation de ses forces de ventes présentés en début d'année aux salariés. Il repose sur la création d'une équipe commerciale transversale en île de France chargée de faire croître les revenus d'Ares dans les services délivrés autours de l'ensemble de ses métiers. En place depuis le début du mois, elle doit maintenant faire ses preuves. (...)
(14/04/2006 17:18:14)NetGear se lance dans le 802.11n pré-standard
Netgear a commencé les livraisons de ses premiers équipements conformes au brouillon du futur standard 802.11 n. Selon la firme, les appareils de la gamme RangeMax NEXT sont capables de transmettre des données à des débits de l'ordre de 300 Mbit/s (débit à l'interface radio) grâce à l'utilisation de la technologie d'antennes multiples MIMO, un élément clé du standard 802.11n. Dans la pratique, les nouveaux équipements devraient afficher un débit pratique bien supérieur à 100 Mbit/s. Pour ces équipements, NetGear s'appuie sur deux fournisseurs de composants. Marvell fournit son chipset 802.11n "TopDog" pour la gamme RangeMax Next Gigabit qui se compose d'un d'un routeur Wi-Fi intégrant un commutateur Gigabit Ethernet (249 $) et d'une carte PCMCIA (129$). Les débits sans fils annoncés sont de 300 Mbit/s. BroadCom fournit, quant à lui, son chipset InteNsi-fi pour les équipements les plus économiques de la gamme RangeMax Next. Il s'agit d'un routeur Wi-Fi 802.11n avec commutateur 10/100 Ethernet (179$), d'un routeur Wi-Fi équipé d'un port ADSL 2+ et du même commutateur 10/100, d'un point d'accès 802.11n (249$), et de deux cartes réseau sans fil PCMCIA et PCI (129 $). Cette deuxième gamme d'équipements affiche des débits maximum de 270 Mbit/s. Il est à noter que Netgear ne s'engage pas, pour l'instant, à ce que ces équipements puissent être mis à jour vers le standard final 802.11n. Dans un communiqué, le constructeur se borne à indiquer que " avec l'avancée du processus de ratification de 802.11n, Netgear continuera a travailler activement avec les multiples vendeurs de chipset ainsi qu'avec l'IEEE et la Wi-Fi Alliance, pour assurer que les solutions sans-fil provenant de plusieurs vendeurs inter-opéreront aux plus hauts débits possibles tout en maintenant la compatibilité et un fonctionnement transparent avec les clients 802.11b/g". Comprenne qui pourra... (...)
(14/04/2006 17:20:38)Vers un étalonnage de la consommation électrique des serveurs
Plusieurs industriels emmenés par Sun, dont AMD, se sont associés à l'organisme américain de protection de l'environnement, l'EPA, et aux laboratoires Lawrence Berkeley pour définir un standard de mesure de l'efficacité énergétique des serveurs. Leur but est de disposer d'un étalon auquel rapporter la puissance de calcul délivrée par un serveur à la puissance électrique qu'il consomme. Dans un communiqué, les participants ont souligné que « la chaleur dégagée et les dépenses de refroidissement augmentent » de la même manière qu'une « soif inextinguible de puissance de calcul. » Andrea Fanara, chef de l'équipe Energy Star de l'EPA a en outre indiqué percevoir « un intérêt positif pour ces questions de la part de [ses] homologues en Europe où ces préoccupations vont grandissantes. » Le groupe de travail prévoit de rendre public son étalon et ses systèmes de conversion dans le courant de l'été 2006. Les problèmes liés à l'accroissement de la densité informatique dans les datacenters vont croissant, comme nous le soulignons récemment dans le Blog infrastructure de LMI à propos des serveurs lames ou à propos de la décision de Google d'opter pour serveurs animés par des processeurs AMD afin d'optimiser le rapport performances/watt de son infrastructure serveur. (...)
(14/04/2006 17:16:39)Paris se met à l'heure du passeport numérique
Fini. Les voyageurs français désireux de visiter les Etats-unis n'auront plus à se munir d'un visa pour pénétrer sur le territoire américain. Depuis le 13 avril, les ressortissants de l'Hexagone peuvent en effet se faire délivrer un passeport électronique. Dans un premier temps réservé aux habitants de Hauts-de-Seine, le nouveau document sera progressivement disponible dans l'ensemble du pays. A la fin du mois de juin, toutes les préfectures le délivreront. Initialement prévu pour être distribué en octobre 2005, le passeport électronique a accusé un retard dû à un contentieux entre le ministère de l'Intérieur et l'imprimerie nationale. Après bien des atermoiements, c'est bien cette dernière qui est chargée de la fabrication du document officiel et qui devrait en livrer deux millions d'ici la fin de l'année. En apparence, rien ne change sur le nouveau passeport. En apparence seulement, car à l'intérieur de la couverture se loge une puce RFID. Mise au point par Axalto, celle-ci contient l'ensemble des données d'état civil écrites sur la première page du livret. Elle renferme également une version numérique de la photo d'identité apposée sur le papier, un ajout donnant ses lettres de biométrie au passeport, une première pour un document administratif français. L'ensemble se veut inviolable, ou du moins hautement sécurisé par le système Axseal assurant un cryptage des données sur 112 bits. Pensé et conçu pour minimiser les risques de contrefaçon, le passeport électronique s'entoure de davantage de précautions, au-delà même des technologies utilisées. Ainsi, le ressortissant désireux de se voir délivrer le document de circulation, ne doit plus seulement présenter une pièce d'identité mais une copie intégrale de son acte de naissance, y compris pour un renouvellement. Les mineurs ne pourront plus figurer sur le passeport de leurs parents et devront désormais disposer de leur propre document. En rendant disponible le passeport électronique, la France rejoint les rares pays à disposer d'un tel document. Elle précède les exigences européennes, un règlement communautaire enjoignant les Etats membres à les fournir à leurs citoyens à compter du 28 août 2006. Surtout, Paris satisfait Washington. Les Etats-Unis ne laissaient en effet plus pénétrer sur leur territoire les visiteurs étrangers démunis d'un document biométrique. (...)
(14/04/2006 17:18:40)La FSF prépare une vaste campagne contre les DRM
Dans un entretien accordé à ZDNet, au Royaume-Uni, Peter Brown, directeur exécutif de la Free Software Foundation (FSF) indique que l'association prévoit de « lancer une campagne pour mettre fin aux DRM », à l'occasion de la sortie, en juin prochain, du second brouillon de la version 3 de la licence GPL. Le premier brouillon contient déjà des provisions à l'encontre des systèmes de gestion des droits numériques et est à l'origine d'une polémique dans la communauté du logiciel livre. Linus Torvalds lui-même s'oppose à ces dispositions, qu'il juge trop contraignantes. Dans la nouvelle campagne anti-DRM de la FSF, Peter Brown prévoit de s'associer à des constructeurs afin d'informer les utilisateurs d'ordinateurs sur les risques associés aux DRM pour leur liberté d'usage des contenus multimédia et des constructeurs à éviter en raison de leur soutien à ces systèmes. (...)
(14/04/2006 17:19:56)Computer Associates rachète Cybermation
Computer Associates vient de conclure un accord définitif en vue de l'acquisition de Cybermation, pour un montant de 75 M$ en numéraire. Cybermation commercialise des solutions d'automatisation de gestion de la charge pour les systèmes d'information. Avec cette opération, Computer Associates entend élargir son offre en la matière avec des solutions de planification et de déploiement automatisés des charges sur les systèmes distribués et les mainframes. Selon une étude IDC de mars 2006 citée par Computer Associates, le marché pour ces solutions devrait représenter 1,77 Md$ en 2010, un marché déjà dominé par l'éditeur. (...)
(14/04/2006 17:21:07)Les gains tirés de l'externalisation seraient exagérés
Les avantages de l'externalisation, notamment les économies en résultant, seraient communément exagérés selon une étude publiée par TPI. L'institut s'est appuyé sur l'examen de contrats d'externalisation conclus entre 2003 et 2005 pour contredire l'idée selon laquelle cette pratique est susceptible de réduire les coûts de plus de 60 %. Selon Duncan Aitchinson, dirigeant de TPI, "cette étude prouve que forts gains opérationnels ne sont pas réalistes lorsque l'on prend en considération les coûts d'établissement et de gestion des contrats d'externalisation. Nous avons établi que les processus d'externalisation se focalisant sur de fortes diminution de coûts conduisent fréquemment à une déception". De fait, TPI estime que les économies réalisées se situent dans une fourchette de 10 à 39 %, avec une moyenne à 15 %. La réduction des coûts n'est toutefois pas l'unique motivation au recours à l'externalisation. Un nombre croissant d'entreprises l'envisagent ainsi dans un souci d'innovation. Et d'amélioration de la qualité : alors que cet aspect n'était décisif que pour 11 % des groupes en 2004, il représente désormais 21 %. (...)
(14/04/2006 12:57:15)Une spécification d'interopérabilité pour les CMDB
BMC Software, Fujitsu, HP et IBM ont annoncé cette semaine leur intention de définir une spécification commune pour aider les entreprises à fédérer les informations contenues dans leurs différentes bases de configuration ou Configuration Management Databases (CMDB). Le nouveau standard permettra aux administrateurs de disposer d'une vue unifiée des informations contenues dans des bases disparates et il permettra aussi de standardiser la façon dont les données sont stockées dans les différents outils de CMDB. L'objectif des quatre sociétés est notamment d'accélérer l'adoption par les entreprises des pratiques ITIL(IT Infrastructure Library). La démarche a le soutien de l'itSMF, ce qui rend très curieux l'absence de CA parmi la liste des fondateurs de la spécification. Il sera intéressant de voir si la société se ralie aux travaux du groupes dans les mois à venir... (...)
(14/04/2006 12:57:29)Xen ne sera pas l'hyperviseur exclusif de Linux
Les développeurs du noyau Linux travaillent actuellement à l'écriture d'une couche d'abstraction qui va permettre de décorréler le noyau des hyperviseurs sous-jacent. La conséquence à court terme de ces travaux est, qu'il sera possible pour les clients de choisir l'hyperviseur qu'ils préfèrent sous Linux, tout en conservant les avantages de la paravirtualisation en termes de performances. Décorréler les travaux sur le noyau des travaux sur les hyperviseurs. L'interface de programmation VMI (Virtual Machine Interface), devrait permettre de décorréler les travaux menés sur le noyau et ceux menés sur les couches d'hypervision, permettant ainsi aux développeurs du noyau de se concentrer sur les évolutions de Linux tout en laissant les développeurs de solutions de virtualisation innover pour enrichir les capacités de leurs environnements. Ponctuellement l'interface VMI sera révisée et enrichie de façon à prendre en compte les évolutions des hyperviseurs. Cette séparation a largement été inspirée par VMWare (voir à ce propos le point de Zachary Amsden sur la mailing list du noyau Linux) mais aussi par les conclusions menés par les développeurs du noyau après leur première expériences d'intégration de Xen dans linux. Si ces travaux sont aujourd'hui arrivés à maturité, ils ont aussi montré les dangers d'une trop grande intégration entre la couche de virtualisation et l'OS. Ainsi, les noyaux XenoLinux conçus pour fonctionner avec Xen 2.0.2 ne fonctionnent pas avec Xen 3.x, du fait des évolutions d'API de ce dernier. De même, les noyau XenoLinux les plus récents ne fonctionnent pas avec les vieux hyperviseurs Xen de la série 2.x. De tels inconvénients auraient été évités avec une interface de type VMI, permettant aux entreprises de faire évoluer leurs environnements de virtualisation sans toucher à leurs distributions linux et vice-versa. Pour l'instant VMWare a contribué une implémentation 32 bit de VMI pour le noyau linux 2.6.16-rc6 et indique que son impact sur les performances est négligeable. Des travaux sont en cours avec XenSource pour que l'hyperviseur libre supporte lui aussi VMI, ce qui pourrait être le cas dès la fin du premier semestre. VMI deviendrait alors l'interface par défaut de virtualisation du noyau permettant à Linux de s'intégrer avec l'ensemble des hyperviseurs du marché compatibles avec l'API. De quoi mettre aux rêves d'hégémonie de Xensource sur l'hypervision Linux, mais aussi de quoi encourager la concurrence entre fournisseurs d'hyperviseurs et accélérer le développement de la virtualisation dans le monde libre. De quoi aussi simplifier à terme l'encapsulation de la virtualisation dans le firmware des serveurs x86, un pas qui les rapprocherait encore un peu plus des grands serveurs Unix... (...)
| < Les 10 documents précédents | Les 10 documents suivants > |