Flux RSS
108538 documents trouvés, affichage des résultats 7641 à 7650.
| < Les 10 documents précédents | Les 10 documents suivants > |
(17/06/2010 15:07:05)
Une start-up améliore la fiabilité des SSD professionnels
Anobit indique que la technologie MLC étend la capacité d'écriture de 3 000 à plus de 50 000 cycles d'écritures. Cette solution est idéale pour certaines applications professionnelles, comme par exemple les bases de données relationnelles. Disponibles en version 200 Go et 400 Go avec une interface SATA. En leur adjoignant un adaptateur externe, ils peuvent fonctionner en SCSI ou Fiber Channel. Côté performance, les débits atteignent 220 Mbit/s en lecture et 180 Mbit/s en mode d'écriture.
La jeune société, fondée en 2006, a inventé un processeur spécial, appelé Memory Signal Processor, qui renforce la fiabilité des mémoires flash MLC Nand, à travers un algorithme de correction d'erreurs. Pour Gilad Engel, vice-président du développement « MSP ajoute un niveau de correction d'erreurs à celui qui existe déjà sur les contrôleurs SSD existants et qui se nomme ECC ». Le responsable souligne que le disque Genesis de 200 Go peut gérer jusqu'à 2 To de données en écriture par jour pendant 5 ans et le 400 Go peut supporter 4 To. L'ensemble de ces disques autorise une vitesse de 20 000 I/O en écriture par seconde et de 30 000 en lecture. Ils supportent en natif des tailles de blocs de 512, 520 et 528 bytes et une mémoire cache non volatile qui protège contre les incidents. Aucun prix n'a été dévoilé.
Pour Gregory Wong, analyste chez Forward Insights, Anobit n'est pas le seul à proposer des processeurs SSD et une amélioration de la fiabilité de la mémoire flash MLC Nand. Sandforce a ainsi réalisé une puce qui utilise la compression de données et une architecture RAID, permettant d'aller au-delà des limitations du MLC. « Sandforce repose sur un codage ECC 24-Bit/512-byte. Néanmoins, le grand problème est que la dégradation de la qualité du signal et la technologie Anobit peut aider à avoir un signal plus propre »
Plus de HTML5 dans la dernière bêta d'Opera
« Le battage autour du HTML5 va croissant, mais le nouveau standard joue également sur la promesse de changer la manière dont le web est utilisé. Cette étape importante vise à transformer le navigateur et le web en plate-forme pour faire tourner des applications, » selon Jan Standal, vice-président des produits bureautiques chez Opera. La mise en oeuvre du HTML5 est donc en cours chez l'éditeur. Ainsi, la version 10.6 d'Opera a étendu les capacités vidéo du navigateur en ajoutant le format de fichier open source WebM, annoncé par Google le mois dernier. Selon le site web du projet, Mozilla, Opera, Adobe et plus de 40 autres vendeurs ont choisi de supporter ce standard. « Le WebM à l'air très prometteur, » a déclaré Jan Standal. « Opera a également ajouté AppCache, l'un des éléments qui permettra d'exécuter des applications web hors ligne, » selon le responsable d'Opera. « Quant à AppCache, il permettra au navigateur de stocker plus de données, ce qui, en retour, accélèrera l'accès aux pages Web ».
En plus de ces améliorations HTML 5, Opera a également intégré une API de géolocalisation, en cours d'élaboration par le W3C, plus Web Workers, développé par le Web Hypertext Application Technology Working Group (WHATWG). « L'API de géolocalisation du W3C fournit aux développeurs une méthode unique pour rendre les applications web capables de travailler avec des services de localisation. L'API peut être utilisée pour identifier le lieu où se trouve l'utilisateur ou fournir des résultats plus pertinents en recherche locale par exemple, » a indiqué Jan Standal. « Web Workers permettra au navigateur de réaliser des tâches qui sollicitent le processeur de manière plus intensive, comme la manipulation d'images et les jeux, sans ralentir les performances globales, » a-t-il précisé.
[[page]]
Les principaux navigateurs sont en train d'adopter le HTML5 et d'autres standards, tous façonnant la prochaine génération de l'Internet. « L'essentiel n'est pas d'être le premier, mais, si tous les vendeurs travaillent avec ce format, ce sont les utilisateurs finaux qui en bénéficieront, » a encore déclaré Jan Standal.
Si Apple, Microsoft, Mozilla, Opera et Google veulent tous collaborer à la mise en oeuvre du HTML5, il existe encore un certain nombre de controverses quant au respect des formats. Récemment, Apple s'est attiré les foudres d'experts Internet pour avoir mis en ligne une démonstration HTML5 qui fonctionne uniquement avec son navigateur Safari. En attendant la version définitive qui sera disponible dans les prochaines semaines, il est possible de télécharger la version bêta 10,6 (pour Mac OS X, Windows et Linux) sur le site d'Opéra.
(...)(17/06/2010 13:47:56)
Cloud et secteur public, IBM creuse son sillon
Lors d'une journée spéciale cloud et secteur public à la Maison de la Chimie à Paris, de nombreux responsables informatiques travaillant pour des universités, des collectivités territoriales, des établissements publics et des administrations d'Etat se sont frottés aux solutions proposées par Big Blue pour évoluer vers le cloud. Lors d'un déjeuner, quelques journalistes ont pu discuter de ces questions avec Philippe Jarre, directeur général IBM Global Technology Services qui a succédé à Nicolas Sekkaki, et Éric Cabos, directeur de l'activité secteur public chez IBM. Une discussion informelle, l'occasion d'échanger librement sur ce sujet d'actualité.
Première étape, le secteur public doit savoir pourquoi elle veut aller vers le cloud nous explique Philippe Jarre. Souplesse à l'usage bien sûr mais également réduction des coûts de déploiement applicatif et meilleur partage des ressources. « Si l'état français n'est pas prêt de devenir, comme en Chine, un fournisseur d'infrastructure pour les start-ups, le cloud est un des domaines qui pourrait muscler la France. Notamment au niveau des collectivités territoriales pour redonner un coup de fouet à un bassin d'emplois. » Au coeur de ce dispositif, on trouve bien sûr des infrastructures informatiques, Philippe Jarre n'était pas pour rien auparavant responsable de l'activité datacenter monde chez IBM.
Pour Éric Cabos, les services publics ont déjà réalisé un grand nombre de choses pour améliorer leurs relations avec les usagers. « Des restructurations sont encore nécessaires pour améliorer les systèmes, mais le mouvement est engagé vers une meilleure optimisation des ressources. Deux à trois années sont encore nécessaires pour passer au cloud. Il s'agit d'un investissement majeur en terme d'infrastructures. »
En illustration, Philippe Jarre, directeur général Global Technology Services, IBM France
[[page]]
Il y a trois à quatre ans, IBM commençait à répondre aux demandes des entreprises privées pour le cloud et a mis à disposition ses capacités et ses solutions pour accompagner l'évolution. Mais aujourd'hui les datacenters publics n'offrent pas encore les conditions d'accès nécessaires pour assurer la résilience propre aux infrastructures clouds. En effet grâce à sa résilience, une infrastructure cloud peut être utilisée de manière préemptive pour transférer des fichiers en cas d'incident informatique, ce qui permet d'éviter toute perte de données et d'accélérer le processus de reprise.
À la question de savoir ce qui coince dans le secteur public pour passer au cloud, Éric Cabos répond sans détour: « la rationalisation, l'argent, l'effort et le temps ». Actuellement les administrations françaises partagent peu leurs moyens informatiques, mais le cloud est une opportunité de remettre l'ouvrage sur le métier. « Il s'agit bien d'une excellente excuse pour se remettre au travail. Je crois par exemple aux initiatives clouds des campus universitaires qui pourront plus facilement proposer des postes de travail à jour, aux collectivités territoriales, aux retraites complémentaires » explique Éric Cabos. « Nous avons beaucoup de discussions et d'études avec les administrations, mais pas encore de projets » ajoute Philippe Jarre. « Certains domaines sont plus accessibles que d'autres, comme la collaboration et le poste de travail, mais tous les grands ministères, les affaires sociales par exemple, s'intéressent au cloud». « On pourrait envisager qu'une administration développe une expertise et la mette au service des autres via un service cloud », précise Éric Cabos. « Et si le cloud pour le secteur public sera tout d'abord privé, le concept de cloud hybrides est un passage obligé pour offrir des services aux autres branches de l'Etat ». Sauf que le statut juridique du secteur public interdit pour l'instant ce genre de bonnes pratiques et que les appels d'offre de services sont encore extrêmement cadrés. Alors oui aux clouds, mais pas encore au partage de ressources entre les différentes administrations. (...)(17/06/2010 12:13:28)SFR refuse de sous-louer son réseau à Free Mobile
Le PDG de ce dernier, Frank Esser a ainsi déclaré lors du 9ème forum des réseaux et télécoms organisé par les Echos les 15 et 16 juin à Paris que « Free a eu le choix entre devenir un opérateur commercial [NDLR : un MVNO] ou un opérateur réseau. Et il a préféré être opérateur réseau. Il doit donc investir en infrastructure. Pourquoi serait-ce gratuit pour lui alors que nous venons d'investir 300 millions d'euros le mois dernier pour acheter des fréquences 3G ? Il n'est pas question que nous entrions en négociation. »
Ferme sur ses positions, Frank Esser n'envisage donc pas d'aider Free à se développer sur le marché de la data mobile. Les accords d'itinérance nationale portent en effet sur les réseaux 2G et sont limités à la seule voix. Or, Free Mobile aura besoin rapidement de négocier avec un opérateur pour accéder aux capacités 3G et proposer des offres d'Internet mobile illimité. Ce marché peut être une manne financière non négligeable pour l' opérateur hôte. En cas de refus, le nouvel entrant pourra se tournera vers le régulateur et vers l'Autorité de la concurrence pour infléchir la position des récalcitrants, mais les procédures sont longues.
Par ailleurs, Frank Esser a indiqué que son groupe va axer sa stratégie sur le développement de l'offre internet pour les terminaux mobiles alors que SFR est désormais le 2ème opérateur alternatif français, à la fois fixe et mobile. Il a profité de sa présence à ce forum pour faire un point sur son marché. Pour lui, la plus grande innovation qui marque le secteur des télécoms aujourd'hui est celle de l'internet pour les mobiles. Il insiste : « pour nous c'est l'avenir ».
Crédit Photo: Jean Chascano
(...)(17/06/2010 11:01:08)France Telecom bataille toujours contre la régulation asymétrique
(Source EuroTMT) C'est devenu une habitude depuis peu, à chaque fois qu'il a l'occasion de prendre la parole en public, Stéphane Richard, le directeur général de France Télécom, remet en cause la régulation asymétrique mise en oeuvre par l'Arcep (Autorité de Régulation des Communications Electroniques et des Postes) à l'encontre de l'opérateur historique. A l'entendre, cette régulation, qui s'explique par la prédominance de France Télécom sur les marchés du fixe, serait la (seule ?) responsable de tous les maux commerciaux.
Après une interview donnée au Monde, Stéphane Richard a ainsi répété ses propos devant l'assemblée générale de ses actionnaires, organisée le 9 juin dernier, le même jour que la présentation par l'Arcep de son rapport annuel, permettant ainsi de justifier l'absence des dirigeants de l'opérateur au cocktail organisé pour l'occasion.
En répétant ainsi ses attaques contre l'Arcep, Stéphane Richard espérait-il faire flancher Jean-Ludovic Silicani, le président de l'autorité de régulation des télécoms, et les membres du collège ? Si c'était le cas, c'est raté. Lors de l'interview qu'il a accordé à EuroTMT (n° 155), Jean-Ludovic Silicani a clairement défendu la régulation asymétrique et la nécessité de la maintenir en place, précisant que le poids de la régulation mise en oeuvre par l'Arcep sur les activités domestiques de France Télécom ne représentait que 0,5 % du chiffre d'affaires de l'opérateur, ce qui est loin d'être très handicapant.
Une fermeté des propos qui a d'ailleurs rassuré les concurrents de l'opérateur historique, inquiets que les attaques répétées de Stéphane Richard ne déstabilisent l'autorité de régulation. D'autant que, pour ces derniers, les difficultés commerciales de France Télécom s'expliquent par des raisons conjoncturelles dans le haut débit, l'opérateur historique ayant toujours, selon eux, la capacité d'accélérer et de retrouver des parts de marchés bien plus élevées.
Photo : Stéphane Richard, Directeur Général de France Telecom (D.R.)
[[page]]
Pour autant, Stéphane Richard a au moins réussi à faire passer son message auprès d'autres oreilles plus réceptives, des critiques (off) contre l'Arcep et son supposé soutien apporté à Free se faisant entendre dans les coulisses du pouvoir. Et si l'Arcep ne semble pas fléchir, France Télécom a obtenu gain de cause auprès de l'Autorité de la Concurrence dans le dossier des fichiers croisés. Au moins partiellement.
Dans un avis publié lundi 14 juin, l'Autorité de la Concurrence a en effet autorisé l'opérateur historique à utiliser cette technique commerciale pour vendre son futur forfait quadruple-play auprès de ses abonnés mobiles et haut débit. Mais l'Autorité a encadré cette mesure, prévenant l'opérateur que les conditions dans lesquelles il mettrait en oeuvre le cross-selling pourraient aussi être qualifiées de pratiques anticoncurrentielles.
D'ailleurs, comme le note aussi l'Autorité de la Concurrence dans son avis, c'est moins le cross-selling que la remise proposée par Bouygues Télécom dans son offre quadruple-play qui explique le succès de l'opérateur mobile dans le haut débit. Au total, un client qui opterait pour l'offre de Bouygues Télécom aurait une réduction de 16 euros par rapport à un client qui prendrait un forfait mobile indépendant d'un forfait haut débit.
Un domaine dans lequel France Télécom a moins de marges de manoeuvres, étant l'opérateur historique de la boucle locale à qui les opérateurs alternatifs louent les lignes. Pour le moment, le carcan réglementaire qui délimite les capacités d'action de l'opérateur historique n'a guère été desserré. Et on peut s'attendre à ce que Stéphane Richard continue à tenir un discours critique vis-à-vis de l'Arcep.
(...)
Des offres SaaS chez l'opérateur Mitel
Chez Mitel, seuls les postes téléphoniques sont en dur, le reste et donc l'essentiel c'est désormais du logiciel. Une transformation de fond opérée en deux ans à coup de partenariats majeurs avec des grands noms de l'informatique. « Nous sommes entrés dans le secteur des éditeurs de logiciels pour agir dans un monde plus vaste, inter-opérer avec d'autres acteurs d'un monde ouvert » nous explique Lionel Hovsépian, directeur des marchés pour l'Europe chez Mitel. Cette nouvelle stratégie passe par des partenariats. Mitel est ainsi allié de Microsoft (en communications unifiées), d'IBM (à la fois sur les communications unifiées et sur Lotus Foundation), de Sun/Oracle (pour la virtualisation du poste de travail), et maintenant de VMware. (pour virtualiser non seulement les applications mais aussi le serveur d'appel).
Ce faisant, Mitel élargit considérablement sa cible et refond également sa distribution. Il continue de recruter des installateurs ou des intégrateurs télécoms. Lionel Hovsépian cite Itac (partenaire historique d'Alcatel-Lucent), le groupement Convergence, Atelio en Alsace, CPV à la Roche-sur-Yon et dans tout l'Ouest. Mais l'idée est aussi de prospecter des partenaires informatiques. Un deuxième grossiste pourrait être choisi dans ce but. Mitel passe déjà par Itancia pour le segment « authorized », celui d'entrée de ses revendeurs. Il compte deux autres niveaux, servis directement : Premium (où Exprimm a rejoint Spie) et Select avec 7 partenaires.
Autre changement, Mitel passe par des opérateurs. Nombre d'entre eux offrent maintenant du SIP truncking. Et les revendeurs ont donc la possibilité de coupler des offres de SIP et des offres de pabx ou de communications unifiées. Les opérateurs vont également développer des offres d'hébergement. L'éco système a donc intérêt à se renforcer, les revendeurs à traiter avec les opérateurs, ces derniers à proposer non seulement « des tuyaux » mais de l'hébergement. Mitel compte déjà des partenaires opérateurs comme Acropolis, Colt, Hub Telecom Region, Verizon et veut développer ce canal. Il compte également proposer des formules en Saas d'ici la fin de l'année.
Le marché des logiciels de Supply Chain accuse une légère baisse en 2009
L'an dernier, la baisse du marché mondial des logiciels de gestion de la chaîne logistique est restée maîtrisée, surtout si elle est comparée aux reculs de certains autres marchés du secteur IT. Selon Gartner, elle a atteint -0,7% pour un chiffre d'affaires de 6,2 Md$. Sa quasi stabilité, ce marché la doit aux revenus récurrents issus des différents abonnements et des services de maintenance souscrits par les entreprises autour des applications. Ils ont respectivement progressé de 10,8 et 0,2%. En revanche, le chiffre d'affaires issu des ventes de nouvelles licences a chuté de 7,4%. La baisse globale du marché qu'elles ont engendré s'est faite sentir lors des neufs premiers mois de l'année alors que le dernier trimestre 2009 s'est achevé sur une hausse de 6% (ventes de nouvelles licences et de services confondus)
Du côté des éditeurs, les résultats sont variables. Dans les rangs de ceux qui ont vu leurs chiffres d'affaires décroître figurent SAP (-8,8%), le numéro un, JDA Software (-2,5%), i2 Technologies (-2%) et Manhattan Associates (-21,4%). Oracle et surtout Ariba tirent quant à eux leur épingle du jeux avec respectivement +0,2 et +8,8% de croissance. « La concurrence entre les éditeurs spécialisés sur certains marchés et leurs homologues plus généralistes, qui commercialise des suites logicielles, s'est exacerbée », indique Chad Eschinger, directeur de recherche au Gartner. En 2009, les ventes de logiciels édités par les spécialistes de la Supply Chain ont progressé de 1,6% à 3,5 Md$. Les ventes de suites logicielles incluant des applications de gestion de la chaîne logistique ont atteint quant à elles 2,7 Md$, soit une baisse de 3,7% comparé à 2008.
(...)
Le terme adéquat pour désigner le bon concept
Utiliser le mot juste n'est pas un luxe ou un snobisme mais bien une nécessité. Cette rigueur seule permet d'être compris sans ambigüité, notamment dans une documentation, des instructions ou, pire, un contrat. En France, de plus, l'usage du Français est impératif dans tous les lieux de travail et dans tous les contrats selon un cadre juridique mis en place dans les années 1994-1996. Une instruction rédigée en anglais est non-opposable en cas de litige.
La Commission générale de terminologie et de néologie rend donc régulièrement des avis et des recommandations publiées au Journal Officiel pour, justement, désigner chaque concept avec un mot juste. L'un des secteurs qui lui donne du fil à retordre est l'informatique où des néologismes anglo-saxons flous, incompréhensibles, inutiles (un terme français existant déjà) ou inadéquats se multiplient. Informatique et télécommunications sont les sujets de deux commissions spécialisées de terminologie et de néologie. Leur rôle est de trouver les termes lexicaux adéquats pour enrichir la langue selon les besoins et seulement selon les besoins.
La création d'un néologisme peut servir à un fournisseur à rhabiller de nouveauté un concept ancien ou à présenter sous un jour avantageux une offre qui ne l'est guère. Faire l'effort de traduire en utilisant le terme juste est une nécessité pour le client avisé, comme pour le journaliste d'ailleurs.
« Nous ne sommes pas de vieux schnocks »
« Nous ne sommes pas de vieux schnocks de la langue » a bien sûr martelé Patrick Samuel, haut fonctionnaire de terminologie et contrôleur général, lors d'une rencontre-débat avec la presse informatique le 15 juin 2010. Pour lui, « remplacer un mot anglais [ou américain, NDLR] par un mot français est un effet induit. Il faut d'abord cerner les concepts. Le travail de terminologie est d'abord une recherche de la définition juste. » Il a fustigé les sarcasmes visant les quelques termes proposés et qui concernent généralement moins de 5% de l'ensemble, destiné au grand public, l'immense majorité des travaux s'adressant à un public de spécialistes voire d'experts.
L'un des problèmes rencontrés de manière récurrente est l'entrée dans le langage courant de marques commerciales relevant de la propriété intellectuelle d'une entreprise mais destinées, de ce fait, à désigner plus qu'un produit. Il y a de ce fait confusion entre le produit d'origine et sa catégorie où des produits concurrents peuvent prendre place. Il s'agit alors de remplacer la marque par un terme générique sur le modèle Walkman (marque de Sony) / baladeur ou, plus récemment, iPad / tablette (ou tablette tactile). La confusion marque/catégorie peut servir la marque quand elle semble unique sur son marché (cas de la suite bureautique Office de Microsoft) ou au contraire la faire disparaitre (célèbre cas de Frigidaire).
[[page]]
« il n'y a aucun mot étranger dans la langue, par définition, mais des mots d'origine étrangère : dès lors qu'ils entrent dans la syntaxe, l'orthographe, la prononciation et la grammaire française, ils sont en quelque sorte naturalisés » a indiqué Xavier North, délégué général à la langue française et aux langues de France. La Délégation générale à la langue française et aux langues de France (DGLFLF) travaille en étroite collaboration avec son homologue du Québec mais les approches sont différentes. En France, la DGLFLF considère qu'il faut choisir un terme précis (ou au plus deux) pour qu'il ait une chance de s'imposer. A l'inverse, les Québécois préfèrent faire de multiples suggestions et retenir ceux que l'usage de la rue consacre. Le terme « courriel » québécois a eu plus de succès que le « mél » franco-français, aujourd'hui abandonné.
Il y a parfois des curiosités. Le terme « buzz » posait un soucis car, dans certains contextes, il désignait un grésillement. Son usage pour désigner la propagation plus ou moins contrôlée d'une rumeur sur Internet n'était pas satisfaisant. Suite à une consultation parmi des lycéens, le terme « ramdam », qui désignait déjà quelque chose de proche dans le monde réel, a été choisi pour le remplacer. Xavier North relève : « nous avons ainsi remplacé un terme d'origine anglaise par un terme d'origine arabe ». (...)
Les compteurs smart grid : une économie chiffrée
D'ici à 2020, chaque foyer français pourrait faire une économie comprise entre 44 euros et 164 euros, selon les calculs effectués par Terra Eco, publiés mardi 15 juin. Ce montant varierait en fonction du coût de l'installation qui devrait s'élever entre 120 et 240 euros par abonné.
D'ici à 2020, 80% des foyers français seront équipés des nouveaux compteurs électriques intelligents, capables de s'adapter en fonction de la saison et de la météo. Selon ERDF, la pose de ces appareils coûtera entre 4,2 et 8,4 milliards d'euros, soit un montant de 120 à 240 euros par abonné. Des chiffres qui seront répercutés sur chaque facture mensuell.
Néanmoins, l'utilisation de ces nouveaux compteurs permettrait de faire une économie d'énergie de 10 à 15%, selon ERDF, soit 230 euros de gain en moyenne. A ceci s'ajoute une réduction de 15% des pics de consommation, régulés grâce à ces nouveaux appareils. Finalement, une somme de 54 euros serait théoriquement économisée.
Une expérimentation a été mise en place dans les régions de Tours et Lyon en mars dernier pour tester le système avec l'installation de 300.000 appareils.
| < Les 10 documents précédents | Les 10 documents suivants > |