Flux RSS

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

108538 documents trouvés, affichage des résultats 6791 à 6800.

< Les 10 documents précédentsLes 10 documents suivants >


(07/09/2010 12:23:47)

Les outils grand public s'invitent discrètement dans l'entreprise

Les travailleurs sur informatique sont de plus en plus nombreux à utiliser des outils issus du grand public dans leur entreprise pour accroitre leur productivité. Cette tendance sert la performance de l'entreprise mais demeure invisible pour la direction dans la plupart des cas. De ce fait, cette tendance n'est ni optimisée ni soutenue. C'est du moins l'enseignement essentiel de la dernière étude réalisée pour le compte d'Unisys sur le sujet (voir fiche technique).

Parmi les outils concernés, on trouve aussi bien du matériel (tablettes, netbooks, smartphones...) que du logiciel (messageries instantanées...) et du service (médias sociaux...). Les matériels sont souvent la propriété des salariés concernés, les comptes sur les logiciels et services également personnels. Tout cela se fait généralement en dehors de toute politique d'entreprise et est largement sous-estimé.

Des acquisitions discrètes

Ainsi, 99% (sic !) des travailleurs interrogés déclarent utiliser « au moins un appareil personnel qu'ils ont acheté eux-mêmes à des fins professionnelles ». Cette tendance est mal voire pas perçue, avec des écarts importants selon les pays. Pour prendre l'exemple du smartphone (dont le plus populaire pour cet usage reste le Blackberry), 24% des travailleurs interrogés en utile alors que seuls 6% des employeurs pensent que tel est le cas. En Grande Bretagne, les chiffres sont respectivement de 38% et 14%.

La moitié des biens de cette catégorie seraient acquis à la fois à titre privé et avec un objectif professionnel. Cela concoure à entretenir plus de confusion entre la vie privée et la vie professionnelle.

Mais certains employeurs acceptent de financer les achats

Si ces produits sont en principe achetés par les salariés à titre privé, donc avec leur argent, certains employeurs commencent à aider au financement de ces acquisitions. France et Grande Bretagne sont en avance sur de telles pratiques puisque respectivement 76% et 71% des entreprises interrogées déclarent « offrir des moyens d'achats plus flexibles à leurs employés » pour acquérir de tels outils, contre 41% aux Pays Bas et 35% en Belgique.

A l'inverse, la France est plus méfiante vis-à-vis des outils web 2.0 que les autres pays : 34% des entreprises permettent aux employés de les utiliser sur le lieu de travail contre 64% aux Pays Bas et 54% en Allemagne.

Le développement de ces pratiques devrait cependant, sous réserve d'un bon encadrement, contribuer au développement de la productivité des entreprises.

(...)

(06/09/2010 17:41:12)

Repenser les technologies d'aujourd'hui pour préserver la planète

Les candidats, amateurs ou professionnels, peuvent soumettre leurs idées sous forme de texte, de vidéo ou de photo jusqu'en janvier 2011, sur le site Openplanetideas.com. Les membres de la communauté Internet peuvent également commenter et même participer à améliorer les idées des autres. Via le portail, les internautes accèdent rapidement aux derniers défis environnementaux, sources d'inspiration pour les contributeurs, qu'il faudra relever pour préserver la planète. Le WWF s'est chargé de récolter les chiffres et données les plus récents sur les différents phénomènes, du changement climatique à la déforestation, par exemple.

Les concepts jugés les plus viables par la communauté et par un panel d'experts de Sony et du WWF seront sélectionnés, notamment sur la base de leur faisabilité technique et environnementale. Le projet sélectionné au final sera par la suite développé.

(...)

(06/09/2010 17:25:12)

Le parquet du Texas enquête sur la méthode Google

Google a annoncé vendredi qu'il faisait l'objet d'une enquête antitrust par le parquet du Texas, une procédure similaire a été lancée au début de cette année en Europe. Le bureau du procureur général a demandé à ce que le géant de Mountain View fournisse des renseignements sur les sociétés Foundem (comparatif de prix au Royaume-Uni), SourceTool (recherche de fournisseurs) et myTriggers (comparatif de vendeurs en ligne aux États-Unis). Chacune d'entre elles s'était plainte, en février dernier, du traitement exercé par Google, faisant que leurs sites arrivent trop bas dans le moteur de recherche, et perdent ainsi leur attrait pour les annonceurs.
Lors de l'ouverture de l'enquête de la Commission antitrust européenne, Google a pointé, vendredi dernier, les relations existant entre les plaignants et Microsoft. Pour le Californien, Foundem serait  soutenu par « l'Initiative for Competitive Online Marketplace », une organisation financée en partie par Microsoft. Quant à MyTriggers et SourceTool, ils seraient représentés, toujours d'après Google, par les avocats antitrust de Microsoft, L'éditeur de Redmond a répondu que, par le passé, les plaintes antitrust émanaient généralement de ses concurrents

Une liste noire à partir de résultats de recherche

Dans le billet d'un blog, Google a reconnu qu'à mesure que la société se développait, il fallait inévitablement s'attendre à des questions sur la manière dont ses affaires étaient gérées. «Étant donné que tous les sites ne peuvent être en haut des résultats, ou même apparaître sur la première page, il n'est pas surprenant que certains sites moins pertinents, voire de moindre qualité, soient mécontents de la façon dont ils sont positionnés » a indiqué Don Harrison, directeur juridique adjoint de la société de Mountain View. Et d'ajouter: « Actuellement, Google collabore avec le ministère public du Texas. »
Foundem, l'une des sociétés qui a déposé plainte auprès de la Commission, a déclaré qu'elle pensait avoir été mise sur une liste noire à partir de résultats de recherche de Google, et ce, pendant un certain temps, parce que la firme de Mountain View la considérait comme une concurrente.

Dans une plainte déposée l'an dernier, le moteur de recherche SourceTool alléguait, pour sa part, que Google avait augmenté le coût de ses tarifs publicitaires de quelque 10 000%. L'affaire avait été rejetée par le parquet de New York, car elle aurait dû être instruite par les autorités Calforniennes. Enfin, au début de cette année, MyTriggers poursuivait également Google pour concurrence déloyale, après que ce dernier lui ait réclamé de payer une facture de 335 000 dollars. Selon MyTriggers, Google aurait gonflé les résultats de recherche, lui faisant payer les ajouts, après.

Des changements d'algorithmes qui nuisent à certains classements

En plus des plaintes déposées auprès du parquet du Texas, un groupe de consommateurs, le Consumer Watchdog, a exhorté le Département américain de la Justice d'enquêter sur les pratiques antitrust de Google. Bien qu'il soit difficile de savoir exactement ce qui s'est passé avec chacune des entreprises, les plaintes semblent soulever deux questions. «Le thème principal de ces affaires, est, je pense, le manque de transparence », a déclaré Greg Sterling, du cabinet de conseil Sterling Market Intelligence, et d'ajouter : « Google fait un effort pour expliquer aux entreprises comment il classe les résultats de recherche et il fait preuve d'une motivation claire pour rendre ses résultats utiles. Toutefois, la firme ne révèle pas la manière dont fonctionnent ses algorithmes de traitement». Selon l'analyste, cela signifie que Google apporte parfois des changements à ses règles qui peuvent nuire à certains classements. Sans être en mesure de savoir comment travaillent les algorithmes, les entreprises peuvent avoir du mal à retrouver leur classement précédent et voir leurs revenus baisser de manière significative.


(...)

(06/09/2010 16:25:09)

Les trous noirs pour dynamiser les ordinateurs quantiques ?

Des scientifiques britanniques ont remarqué des similarités intrigantes entre les mathématiques de l'intrication quantique utilisés par les ordinateurs quantiques et ceux des trous noirs calculés via la théorie des cordes. L'équipe du London's Imperial College, dirigée par le professeur Mike Duff, décrit dans une publication comment il semble possible d'utiliser les théories relatives aux trous noirs (basées sur celle des cordes) afin d'effectuer des prédictions sur le comportement des particules intriquées « 4 qubits » (quantum bit). Tout cela peut paraître très abstrait, la publication en question étant destinée aux physiciens professionnels, mais les implications pourraient être importantes non seulement pour la physique, mais aussi pour l'informatique quantique.

Des calculs déjà difficiles à gérer

Ce serait la première fois que des mathématiques dérivés de la très controversée théorie des cordes pourraient être utilisés pour effectuer des prédictions à propos de n'importe quoi dans un univers vérifiable expérimentalement. Pour l'informatique quantique, cela ouvre potentiellement la voie vers des calculs de plus de 3 qubits en utilisant cette méthode. Un qubit est l'équivalent quantique d'un bit traditionnel mais constitué de particules intriquées, qu'Albert Einstein, en bon sceptique, avait qualifié de « sinistre action à distance ». Le principal problème est de travailler avec 2 ou 3 qubits impliquant des calculs tellement complexes qu'obtenir des résultats utiles par ce biais est difficilement réalisable.

« Cela ne prouvera pas que la théorie des cordes est la bonne « théorie du tout » recherchée par les astronomes et les physiciens des particules. Ce devrait néanmoins être très important pour les théoriciens puisque cela démontrera si oui ou non cette théorie est fonctionnelle, même si son application se trouve dans un domaine inattendu et complètement différent, l'informatique quantique », précise Mike Duff. Il affirme avoir été frappé pour la première fois par ce rapprochement lors d'une conférence de physique en Australie sur l'intrication quantique. De retour en Angleterre, il aurait réalisé que ces mathématiques étaient identiques à ceux qu'il avait développés quelques années auparavant pour expliquer les trous noirs. « Cela pourrait signifier quelque chose de très profond à propos du monde dans lequel nous vivons ou peut-être n'est-ce qu'une coïncidence. Dans tous les cas, c'est utile », conclut-il.



illustration: ordinateur quantique université d'Innsbruck

Crédit Photo: D.R

(...)

(06/09/2010 16:22:08)

Les clients de VMware restent méfiants vis à vis de Hyper-V

Les clients de VMware venus assister au salon VMworld 2010, ont finalement pu voir de près la plate-forme de virtualisation Hyper-V de Microsoft. Comparée avec la solution du leader, ils estiment que la technologie de l'éditeur de Redmond manque un peu d'ampleur et qu'il leur serait difficile de reprendre tout à zéro après avoir investi massivement dans la solution de VMware. Cet investissement implique non seulement de l'argent, mais aussi le temps et les formations qu'il leur a fallu pour améliorer leurs connaissances du système de virtualisation sur x86 le plus répandu au monde. "En quelque sorte, c'est comme si nous dirigions une boutique VMware. Nous tenons à l'expérience que nous possédons dans ce domaine, à ce que nous savons faire le mieux," a, par exemple, déclaré Chris Bennett, administrateur VMware ESX pour le cabinet d'avocats londoniens Linklaters.

Le cabinet, qui a virtualisé 80% de ses serveurs avec VMware, avait récemment envisagé d'adopter la technologie Hyper-V - l'utilisation de l'add-on gratuit pour Windows Server, aurait notamment permis d'économiser un peu d'argent - pour virtualiser les serveurs de ses petites succursales à travers le monde. Mais Linklaters est finalement resté fidèle à VMware afin d'éviter des complications de gestion informatique. Ainsi, le cabinet peut utiliser les mêmes modèles de machine virtuelle dans ses antennes régionales que celles de son datacenter principal. "C'est essentiellement la connaissance que nous possédions de VMware en interne qui a motivé notre choix de ne pas nous orienter vers Hyper-V," a déclaré Chris Bennett. "Mise à part la connaissance que les clients ont de la technologie VMware, les accords de licence entreprise (ELA) passés sur le long terme pour l'utilisation du logiciel de virtualisation rend la transition difficile," explique Nik Gibson, consultant pour les usages bureautique chez Forsythe, un cabinet de conseil en technologie et par ailleurs ancien de VMware et de Citrix.  "VMware a fait une belle opération en liant ses clients par des accords de licence de ce type. Il est clair que, lorsque l'on a investi lourdement, on est moins tenté d'introduire un autre hyperviseur," explique-t-il. "VMware a fait un excellent travail de verrouillage qui engage de nombreux gros clients."

Hyper-V, un bon produit pour le test

Pour Chris Bennett, Hyper-V est un bon produit dans l'ensemble et certains membres de son équipe l'utilisent même de manière informelle, notamment pour le test et le développement. Le seul problème majeur tient, selon lui, à la manière dont le logiciel de virtualisation de Microsoft organise le stockage, qui, estime-t-il, est plus compliquée et plus difficile à gérer qu'avec VMware. Josh Gray, ingénieur système à la banque Aurora de Denver, qui a installé VMware pour le déploiement de ses serveurs virtualisés, fait la même remarque: «Je me suis brièvement amusé avec Hyper-V lors d'une session Microsoft, et je me suis rendu compte qu'il fallait plus d'étapes pour connecter des unités de stockage à des machines virtuelles dans Hyper-V que dans VMware." Du coup, il juge le processus de gestion un peu plus compliqué. "Microsoft a un long chemin à parcourir dans la virtualisation, un peu comme pour leurs téléphones mobiles", a-t-il estimé. "Il faudra vraiment qu'il apporte quelque chose de plus révolutionnaire pour prendre des parts de marché."

Raci Dearmas, ingénieur principal à l'Overlake Hospital de Bellevue (Washington), a également testé la technologie Hyper-V: "Elle est beaucoup plus complexe à gérer. Mais ce n'est pas tout. Nous avons déjà une équipe très habituée à VMware. Aller vers quelque chose de totalement différent et avoir deux systèmes distincts à gérer n'était pas idéal pour nous." D'autant que pour lui, la configuration des réseaux locaux virtuels s'avérait problématique avec Hyper-V. "C'est juste un produit moins mature,» a commenté son collègue, Joseph Wolfgram, directeur informatique de l'hôpital. Jason Morris administrateur systèmes chez Fermilab, un autre client VMware basé dans la banlieue de Chicago, affirme qu'il n'a pas encore essayé Hyper-V, mais considère que le prix élevé de VMware fait de Microsoft une alternative. L'ajout récent de la migration en direct rend aussi le produit plus viable. "Le coût de VMware rend sans aucun doute Hyper-V un peu plus intéressant et je vais le considérer de plus prêt,» a-t-il déclaré.

Des clients mis en avant par Microsoft

Microsoft tente de faire valoir que Hyper-V peut même être adoptée par les plus gros clients, signalant que CH2M Hill, une entreprise classée 520 au Fortune 500, envisage de délaisser progressivement VMware pour Microsoft. Mais CH2M Hill précise qu'il faudra trois à cinq ans à l'entreprise pour réaliser cette mutation, notamment à cause des licences logicielles et des contrats de maintenance existant. Mike Neil, le patron de la virtualisation chez Microsoft, affirme que la part de marché d'Hyper-V croit plus rapidement que celle de VMware. "Je suis assez confiant, nous sommes sur la bonne voie,' a-t-il déclaré. "Nous avons réussi à convaincre certains clients à le déployer dans leurs environnements." Paul Maritz, le PDG de VMware, s'est empressé de tempérer l'argument des parts de marché, faisant valoir que VMware était encore le leader incontesté en matière de déploiements de systèmes de virtualisation à grande échelle. Pour lui que l'augmentation des parts de marché de Microsoft tient essentiellement au nombre de personnes qui font appel à la technologie Hyper-V pour de petits projets. «En termes d'utilisation, nous possédons, et de très loin, la plus grosse part du marché des hyperviseurs installés dans les grandes entreprises », a t-il déclare lors d'une session de questions/réponses avec les journalistes. "Cela étant dit, Microsoft est clairement une entreprise qui dispose d'énormes ressources." Rappelons que Paul Maritz a travaillé de 1986 à 2000 pour l'éditeur de Redmond. Il connaît très bien  la firme et son mode opérationnel...

Un public déjà conquis pas les outils VMware

Certes, il n'est pas étonnant que les participants du VMworld 2010, une manifestation destinée à la clientèle de VMware, disent se méfier d'Hyper-V de Microsoft. Mais presque toutes les sociétés du classement Fortune 1000 utilisent VMware, et toutes les entreprises du Fortune 100 sont aussi des clients VMware. Microsoft aura du mal à convaincre la majorité de ces clients à changer, mais la solution de Microsoft est certainement une option pour les petites entreprises qui commencent à aller vers la virtualisation. "La clientèle qui s'intéresse à Hyper-V est généralement motivée par l'avantage financier. Ce sont aussi de nouveaux clients qui mettent en oeuvre leur premier déploiement de virtualisation," explique Anoj Willy, chef de projet pour INX, un revendeur, partenaire de Microsoft et de VMware. Pour Chris Bennett, s'il devait aujourd'hui démarrer un projet de virtualisation, entre VMware, Microsoft et Citrix XenServer, il choisirait quand même VMware à cause de ses applications de production.

Selon Anoj Willy,"même si Microsoft a amélioré la technologie Hyper-V, celle-ci reste en deçà de VMware en termes de taux de disponibilité et de stabilité. Malgré la migration en direct qu'elle offre aujourd'hui, Hyper-V ne peut pas déplacer en même temps autant de machines virtuelles contrairement à VMware," a-t-il ajouté. "En terme de capacité de production, ce n'est tout simplement pas comparable," a déclaré Anoj Willy, qui note cependant que "Microsoft est un géant" qui dispose d'un gros budget marketing et R & D, et une «capacité à se faire une place sur des marchés» dominés par d'autres. Mais pour le moment, Nik Gibson constate que la demande pour la solution Microsoft reste faible, en tout cas quand il s'agit de la plate-forme de virtualisation serveur que les clients utilisent en back-end de leurs déploiements de bureaux virtuels. «Je n'ai pas vu beaucoup d'Hyper-V," a-t-il déclaré. Mais "c'est sans doute aussi parce que nous traitons principalement avec de grands comptes."

(...)

(06/09/2010 15:39:10)

Emet, l'outil de sécurité gratuit de Microsoft, arrive en version 2.0

« Emet (Enhanced Experience Attenuation Toolkit) 2.0 est un outil gratuit conçu pour prévenir contre des techniques de piratage actuellement en cours à travers l'Internet, » a indiqué Microsoft. « Il permet notamment de bloquer les attaques ciblées visant à exploiter des vulnérabilités non corrigées dans des logiciels Microsoft, des applications tierces, ou des lignes de produits professionnels, » a précisé l'éditeur. « Il peut être utilisé par n'importe qui, mais il est principalement destiné à protéger les applications installées sur des machines à risque. » Cela concerne par exemple les applications industrielles résidant sur des serveurs back-end et les navigateurs Internet tournant sur les ordinateurs des dirigeants d'entreprises. « Ce sont des scénarios où le piratage de ces applications pourrait être particulièrement dommageable," ont déclaré dans un blog Andrew Roth et Fermin J. Serna, deux chercheurs en ingénierie du Microsoft Security Research Center (MSRC).

Renforcer la sécurité de toutes les applis

Parmi les modifications apportées à la version 2.0, on note une interface utilisateur qui permet de suivre les processus en cours et de voir si l'outil Emet a bien été activé. En outre, le logiciel sait désormais ajouter des parades de protection à des applications qui ne les supportent pas en natif.

Du point de vue de la sécurité, cette version embarque, selon le blog des équipes de Microsoft, de nombreuses améliorations comme : La randomisation de l'espace d'adressage (ASLR), une technique d'adressage aléatoire des objets partagés. Cette technique pourrait compliquer les attaques qui exploitent les adressages mémoires écrits en dur; «Export Address Table Access Filtering », une atténuation qui empêche les shellcode d'allouer les API Windows; « Structured Error Handling Overwrite Protection » par la validation de la chaine des gestionnaires d'exception; « Dynamic Data Execution Prevention », qui marque des parties de la mémoire allouée par un processus donné comme non exécutable, ce qui complique l'exploit des vulnérabilités de corruptions de la mémoire; « NULL page allocation », qui empêche l'exploit des références NULL en mode utilisateur; « Heap Spray Allocation », Emet réserve les adresses mémoires généralement utilisées pour ce type d'exploit, qui consiste à injecter aléatoirement du shellcode dans la mémoire dans l'espoir de l'exécuter accidentellement.

Emet 2.0 permet aux utilisateurs de sécuriser les applications en 32 ou 64 bits, soit en ligne de commande soit avec l'interface utilisateurs. Les mesures d'atténuation peuvent être déterminées par application et par processus. Emet pourra être mis à jour au fur et à mesure de la disponibilité de nouvelles technologies de protection.

 


(...)

(06/09/2010 14:38:27)

Après part EBP, Philippe Leroy rejoint Oxatis

Philippe Leroy quitte EBP après dix ans de présence chez l'éditeur de logiciels de gestion en tant que directeur commercial. Ce départ qui intervient à son initiative va lui permettre de rejoindre les rangs d'Oxatis au poste nouvellement créé de directeur général. Il travaillera de concert avec Marc Schillaci, le PDG et fondateur de cet éditeur de solutions de création de sites e-commerce, à compter du 20 septembre. 

Pour remplacer Philippe Leroy, EBP a décidé de promouvoir Frédéric Dannery, son directeur commercial adjoint depuis 2007. Recruté par EBP en 2001, celui-ci connaît bien le réseau de revendeurs de l'éditeur. Il a précédemment occupé le poste de responsable national des ventes indirectes de l'entreprise. (...)

(06/09/2010 14:36:23)

Une levée de fonds de 3,2 millions d'euros pour IC Telecom

L'opérateur IC Télécom a réalisé 19,4 millions d'euros (ME) de chiffre d'affaires (CA) pour son exercice annuel, achevé au 30 juin dernier. L'objectif est d'arriver à 100 ME d'ici trois ans. Pour cela, IC Telecom a lancé une augmentation de capital réservée (*). « Elle a permis de lever comme prévu 3,2 millions d'euros, nous explique le Pdg Goël Haddouk, qui nous permettra de poursuivre trois objectifs : l'ouverture de nouvelles agences, des développements technologiques et de la croissance externe ».

Proche de ses clients, car tourné vers les TPE et petites PME, IC Télécom se déploie par un réseau d'agences en ventes directes. L'opérateur est actuellement présent à : Paris, Enghien, Clermont-Ferrand, Lille, Toulouse et Nantes. D'ici la fin de cette année, trois autres agences ouvriront leurs portes : Paris sud ouest, Lyon, Strasbourg. D'autres sont programmées en 2011, dans le sud est.Pour la partie technologie, IC Telecom a entamé des développements pour assurer une couverture fixe-mobile à ses clients. L'opérateur compte 15 salariés  sur  150 en R&D et table sur son indépendance technologique depuis le rachat d'Active Télécom en 2007, qui lui a apporté une plate forme autonome. Quant à la croissance externe, IC Telecom regarde spécialement dans l'hébergement. (...)

< Les 10 documents précédentsLes 10 documents suivants >