Flux RSS

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

108538 documents trouvés, affichage des résultats 5531 à 5540.

< Les 10 documents précédentsLes 10 documents suivants >


(27/12/2010 09:50:24)

La réalité augmentée au service de la relation client

Prendre son téléphone portable, utiliser sa caméra et viser une rue pour trouver la route vers un magasin ou un endroit où obtenir un service via des indications ajoutées sur l'écran : c'est là une application concrète de la réalité augmentée sur terminal mobile (RATM). De telles applications se multiplient en ce moment mais pour une utilisation relativement marginale.

Pourtant, selon le cabinet Forrester, « toutes les conditions sont réunies pour une adoption progressive » de cette technologie. Cet institut vient de publier son étude « Mobile Augmented Reality - Beyond The Hype, A Glimpse Into The Mobile Future » qui est très favorable à la réalité augmentée sur terminaux mobiles (RATM). Plutôt pilotés aujourd'hui par les services marketing, la RATM s'intègrera un jour ou l'autre dans les SI et est donc appelée à repasser sous la coupe de la DSI. Forrester ne prend pas position sur le sujet et en reste pour l'heure à un pilotage par le marketing.

Une levée des freins

Forrester argumente sa position très favorable sur la RATM tout d'abord en relevant que les principaux freins à l'adoption de celle-ci sont en train d'être levés. Le premier de ces freins est la capacité des terminaux mobiles eux-mêmes à réaliser de la RATM. Or les téléphones et autres tablettes voient leurs puissances de calcul comme de stockage de données exploser. Le deuxième est l'existence des réseaux haut débit mobile 3,5G. Ceux-ci sont suffisants pour la RATM selon Forrester sans qu'il soit nécessaire d'attendre un déploiement de la 4G (LTE...). Mais que la RATM soit possible n'implique pas forcément qu'elle soit utilisée. « Les marketeurs et spécialistes produits se doivent d'être prudents lorsqu'ils intègrent la RA dans leur stratégie mobile pour 2011 » tempère Forrester qui reconnaît l'immaturité du concept.

Eduquer les consommateurs

Malgré tout, « le comportement des consommateurs devrait évoluer progressivement ». Pour justifier cette position, Forrester estime que les consommateurs sont de plus en plus habitués à interagir avec leur environnement grâce à leur terminal mobile. L'exemple pris peut laisser dubitatif : la prise de photographies qui, aujourd'hui, est plus importante en quantité avec les smartphones qu'avec des appareils photographiques. Mais il faut reconnaître qu'il s'agit là du premier stade d'interaction : la prise d'une image pour, par exemple, la mettre aussitôt en ligne sur Facebook. Selon Forrester, la RATM se développera conjointement avec les autres technologies d'interaction de l'utilisateur de smartphones, avec, au premier chef, la géolocalisation mais aussi la lecture de codes barres ou de puces NFC. Le développement de chacune de ces technologies renforcera les autres avec un effet de cercle vertueux.
(...)

(24/12/2010 12:22:15)

SAP s'appuie sur d'autres avocats en vue d'un appel contre Oracle

Quatre avocats de la firme de San Francisco Durie Tangri LLP ont été ajoutés à la liste de l'éditeur allemand, selon des documents transmis au tribunal au cours des dernière semaines. Durie Tangri se concentre sur différents domaines complexes du litige, à savoir la propriété intellectuelle (brevets, marques et droits d'auteur), la responsabilité professionnelle, les contrats, les questions commerciales et les actions collectives. Le cabinet indique également posséder « une vaste expérience dans les cas de copyright ». La firme représente Google dans le cadre de son projet de numérisation d'ouvrages, ainsi que Linden Lab dans une affaire de prétendue copie d'objets virtuels sur Second Life. Nous avons ajouté des compétences complémentaires à notre équipe et nous continuons à réfléchir à d'autres options après le procès, a déclaré SAP Andy Kendzie, porte-parole de SAP dans un e-mail. Oracle avait intenté un procès contre le SAP en 2007, alléguant que sa filiale TomorrowNow avait illégalement téléchargé le logiciel Oracle et le matériel de support afin de fournir une assistance à moindre coût aux clients d'Oracle.


Des points de procédure ou l'appel côté SAP

Alors que SAP avait exprimé ses regrets sur ses actions relatives à sa filiale TomorrowNow et accepté sa responsabilité, il avait toutefois considéré que la taille de la sentence était injuste. La firme avait fait valoir qu'elle était redevable de 40 millions de dollars, tandis  qu'Oracle avait pour sa part réclamé 1,6 milliard de dollars.
SAP a déclaré qu'il étudierait toutes les options disponibles, y compris de soulever des équipes post procédures et l'appel, si nécessaire, après le jugement ait été rendu à la fin novembre. Ce sera malheureusement un long processus et nous continuons d'espérer que la question sera résolue de manière appropriée, sans années supplémentaires de litige, a considéré la firme. Même avant le verdict du jury, SAP avait accepté de verser 120 millions de dollars de frais juridiques à Oracle, si ce denier renonçait à demander des dommages et intérêts. De son côté, Oracle
avait réclamé à SAP quelque 212 millions de dollars de dommages et intérêts.

(...)

(24/12/2010 12:18:56)

La racetrack memory d'IBM veut concurrencer la mémoire flash

Appelée « racetrack memory, » il s'agit d'une technologie sur laquelle le chercheur d'IBM Stuart Parkin travaille depuis 2004. Contrairement à un disque dur, qui tourne autour de charges magnétiques des atomes à l'aide d'un moteur, la racetrack memory utilise des courants électriques pour déplacer des paquets d'électrons, appelés des murs magnétiques, maintenus de haut en bas par un fil minuscule. « C'est comme une sorte d'onde magnétique que nous bougeons sans avoir à déplacer les atomes », a déclaré Stuart Parkin.

En déplaçant ces murs vers un lecteur, la racetrack devrait être capable de lire et écrire des données beaucoup plus rapidement en utilisant beaucoup moins d'énergie que les dispositifs actuels de stockage. Stuart Parkin pense qu'il peut avoir un effet important sur la capacité de stockage des appareils électroniques courants, comme les téléphones. Avec du financement, il pense que d'ici deux à cinq ans, il pourra construire des puces avec des fils qui amèneront les murs magnétiques vers des capacités de stockage intégrant jusqu'à cent fois plus de données que les puces équipées de mémoire flash. Avec l'utilisation de fils de quelques microns de long et environ 30 nanomètres de large - un millième de l'épaisseur d'un cheveu humain - les puces équipées de cette technologie pourront stocker des centaines de Go, voire quelques téraoctets de données, prédit le chercheur.

Les ondes magnétiques ont une masse


L'équipe de Stuart Parkin a déjà développé des prototypes de racetrack avec la possibilité de lire et d'écrire des ensembles de données simples. Mais jusqu'à présent, il y avait une question clé à résoudre: comment déplacer exactement les murs magnétiques ?  Avant, il y avait deux écoles de pensée sur cette question. Une approche qui estime que les ondes magnétiques décrites par Stuart Parkin n'ont pas de masse et ne se déplacent qu'à une vitesse définie en fonction d'une impulsion électrique donnée. L'autre approche  est de dire que ces ondes ont une masse soumise aux lois de l'inertie mais elles peuvent prendre de la vitesse pour accélérer jusqu'à plusieurs centaines de miles par heure et s'arrêter lorsqu'il n'y a plus de courant. C'est ce qu'ont souligné les chercheurs dans un article publié sur la question le 24 décembre dans Science Magazine. Fort de cette connaissance, ils vont pouvoir déplacer et récupérer des données sur la technologie racetrack.

Il y a encore beaucoup de travail à faire avant qu'elle devienne une réalité, mais la résolution de la question des déplacements des murs magnétiques est un grand pas. Il demeure des problèmes sont plus pratiques et moins théoriques : comment voulez-vous construire un puce racetrack qui fonctionne de manière fiable avec des millions voire des milliards de ces fils, par exemple » conclut le chercheur.

(...)

(24/12/2010 11:09:25)

Quelles régulations pour le Net ?

(Source EuroTMT) Depuis quelques années, un débat monopolise toutes les attentions : celui de la « net neutralité ». Lancé aux Etats-Unis par les géants de l'Internet en raison de l'absence de concurrence sur la boucle locale, il a rebondi en Europe où politiques et associations de consommateurs s'inquiètent de la possibilité pour certains (comprendre les opérateurs télécoms) d'entraver l'accès à la Toile.

Si les tentations de censure d'Internet par certains gouvernements (comme le montre l'affaire Wikileaks) justifient ces craintes, ce débat sur la « net neutralité » cache, en fait, un tout autre objet : comment réguler les relations entre Internet, les télécommunications et l'audiovisuel (et plus généralement les industries culturelles) ? Car Internet est aussi (et d'abord ?) un gigantesque enjeu économique et financier. Faisant voler en éclats toutes les barrières, Internet constitue le champ de confrontations entre trois acteurs : les opérateurs de télécommunications, l'audiovisuel traditionnel et les fournisseurs de contenus en ligne. Or de lourdes réglementations encadrent l'action de deux premiers, alors que la troisième catégorie d'acteurs n'est soumise à aucune régulation.

Réguler Internet ou déréguler les médias et les télécoms

Industrie virtualisée et donc facilement délocalisable, Internet impose donc une remise en cause des réglementations des télécoms et de l'audiovisuel. « Il existe une solution simpliste : comme on ne peut pas réguler Internet, il suffirait alors de faire sauter la régulation audiovisuelle. Mais cette régulation se justifie au regard de plusieurs objectifs (financement de la création, protection de l'enfance...). Il faut donc trouver une régulation adaptée à Internet » constate Emmanuel Gabla, du CSA, tout en reconnaissant qu'un tel travail ne peut se faire qu'au niveau européen ou international. En fait, cette remise en cause des régulations sectorielles pose un problème majeur surtout pour l'audiovisuel. Car pour les télécoms, le nouveau Paquet voté fin 2009 permet aux autorités de régulation nationales d'avoir les moyens d'analyser les relations entre les opérateurs télécoms et les acteurs de l'Internet et d'agir le cas échéant.

[[page]]

Et pas seulement contre les opérateurs télécoms, un peu trop rapidement jugés par l'opinion publique comme de possibles fauteurs de troubles. « Du point de vue de l'Arcep, la régulation d'Internet, c'est avant tout la régulation des réseaux. Si les services et contenus sont virtualisés, le trafic circulant sur les réseaux est bien réel et c'est sur lui que la régulation de l'Arcep à une prise » souligne Jean-Ludovic Silicani, le président de l'Arcep. Et il y a un endroit bien précis où la régulation télécoms peut s'appliquer : au niveau des interconnexions.

Un déséquilibre économique certain

Pour le coup, certains grands noms de l'Internet (comme Google) ont investi dans les réseaux pour disposer de leur propre infrastructure : Google dispose ainsi de quelques 200 points d'interconnexion avec des opérateurs télécoms, Facebook en a 27. Or jusqu'à présent dans l'Internet, ces interconnexions étaient soumises à la règle du « peering » (connexion et échange de trafic point à point) gratuit. Mais le déséquilibre du trafic échangé entre Google et chaque opérateur télécoms est devenu tel que les autorités de régulation peuvent vérifier si le géant de l'Internet n'abuse pas de sa force pour contraindre les opérateurs à maintenir des accords de gratuité là où il devrait payer pour faire passer son trafic. La situation est en revanche beaucoup plus complexe pour l'audiovisuel. « En 1986, lors de l'ouverture de l'audiovisuel à la concurrence, un deal a été conclu entre les acteurs privés et le gouvernement : en échange de la gratuité des fréquences radio, les entreprises avaient un certain nombre d'obligations en matière de contenus et de financement du cinéma », rappelle un spécialiste.

Google/YouTube et Facebook ne financent pas la production de contenus

« Or ce deal est en train de voler en éclats puisqu'une part croissante des programmes audiovisuels passe maintenant par les réseaux télécoms, alors que les acteurs traditionnels sont en concurrence avec des acteurs de l'Internet sur lesquels ne s'appliquent pas ces contraintes » précise ce même spécialiste. D'où une double interrogation : que faire, à terme, de cette partie du spectre radio d'émission utilisée gratuitement par l'audiovisuel traditionnel alors que les besoins de la téléphonie mobile (qui paie - elle - ses fréquences) sont croissants, et comment appliquer à Internet les contraintes de l'audiovisuel ? Si tous les acteurs sont conscients du problème, personne n'a la réponse.

Et certains dans l'audiovisuel se réfugient trop facilement derrière quelques certitudes (la consommation de la télévision traditionnelle demeure élevée) pour évacuer la question. « Faisons attention aux équilibres économiques en place qui sont fragiles : les mêmes règles doivent s'appliquer à tout le monde » répond ainsi un dirigeant de l'audiovisuel, refusant de voir que le monde a changé. Avec l'arrivée massive des téléviseurs connectés dans les foyers occidentaux, l'explosion des cadres réglementaires est en train de se produire. Et faute d'une réponse rapide des pouvoirs publics européens, c'est bien Internet qui imposera sa loi.

(...)

(24/12/2010 10:45:31)

Bilan datacenter 2010 : Consolidation et automatisation

L'informatique à la demande a remis au centre du débat les datacenters et notamment leur efficacité et leur architecture. Après une année de crise, les sociétés se sont penchées sur leur centre de coût et donc sur leur datacenter avec comme objectif la consolidation.

Le tout en un et le modulaire


Conscient de ce changement, les grands groupes IT se sont focalisés sur la création d'équipements qui sont capables de gérer l'ensemble des composantes d'un datacenter. EMC, Cisco et VMware ont ainsi présenté leur VBlock, assemblage d'élément serveur, réseau et stockage..  De son côté, HP propose son offre Blade System Matrix, qui reprend les mêmes caractéristiques. Oracle n'est pas en reste avec son produit Exalogic. Des intégrateurs et des opérateurs seront les prescripteurs de ces produits. Pour certains analystes, nous sommes dans une phase de guerre des stacks. Il n'en demeure pas moins que l'adoption de ce type d'équipements se fera progressivement et entre en compétition avec les sociétés qui disposent d'un savoir-faire sur chaque brique.

Opérateurs et constructeurs s'intéressent également au datacenter modulaire. HP a présenté son POD, Colt a suivi aussi sur ce modèle et une autre société I/O prévoit des datacenters modulaires autonomes. Enfin SGI prévoit un conteneur avec un refroidissement par l'air extérieur.

Green IT et automatisation


Un peu délaissé, la consommation énergétique des datacenters est de nouveau, un sujet d'importance pour les entreprises. Le développement de processeurs moins gourmands, d'une meilleure utilisation des serveurs, via la virtualisation ont permis de diminuer ce poste de coûts. Des organismes comme le Green Grid affinent leur métrique pour évaluer le PUE (Power Usage Effectivness) en intégrant de nouvelles mesures comme l'eau et le charbon. L'objectif est de trouver un standard pour calculer l'efficience énergétique des datacenters.

Un autre sujet préoccupe les responsables IT avec l'évolution de leur infrastructure, la répétition de certaines tâches et donc de la mise en place de solutions d'automatisation. Lors d'un entretien, Yves de Talhouet, PDG de HP France, nous indiquait « Sur le plan technologique, il est important d'avoir une infrastructure bien intégrée pour disposer de puissance machine, de stockage, de pouvoir reconfigurer des aspects réseaux. Il est nécessaire d'envelopper tout cela dans une couche logicielle, qui sert à automatiser la gestion de cette plateforme. » Beaucoup d'éditeurs et de constructeurs se sont donc lancés dans la création de logiciel d'automatisation, sur différents axes. Certains s'orientent vers les environnements de développement et de tests, d'autres s'inscrivent dans l'interopérabilité entre cloud privé et public. Il est probable que d'autres annonces interviennent sur ce sujet dans les prochains mois.

(...)

(24/12/2010 10:38:03)

Antoine Henry devient directeur général de Sage France

Sage France vient d'annoncer la nomination d'Antoine Henry au poste de directeur général. Il succède à Pascal Houillon, nommé PDG de Sage Amérique du Nord. Au début du mois,  le spécialiste de logiciels de gestion avait également officialisé la promotion de Paul Stobart (auparavant en charge du Royaume-Uni  et l'Irlande) comme dirigeant de l'Europe du Nord, d'Álvaro Ramírez en tant que PDG de l'Europe du Sud et d'Ivan Epstein à la direction des zones Asie et Moyen-Orient.
Antoine Henry était jusqu'à présent directeur général délégué de Sage en France. Directeur marketing de la filiale française de l'éditeur de 1996 à 2001, il a contribué à la fusion de Saari et de Sybel et a lancé la marque Sage en France, après avoir assumé la présidence du spécialiste des logiciels comptables Ciel. Titulaire d'une maîtrise de gestion et d'un DESS en informatique de gestion obtenu à l'université Paris Dauphine, il a débuté sa carrière en 1987 chez Apple France où il a occupé différentes fonctions de management. Antoine Henry prendra officiellement ses nouvelles fonctions le 1er janvier 2011.

(...)

(24/12/2010 10:47:19)

Des chercheurs révèlent une attaque zero-day sur IE

« Microsoft enquête sur une nouvelle menace rendue publique d'une éventuelle vulnérabilité dans Internet Explorer,» a déclaré Dave Forstrom, directeur du groupe Trustworthy Computing Group de l'éditeur dans un communiqué. « Actuellement, aucun élément ne nous permet de penser que des attaques en cours tentent d'utiliser cette vulnérabilité ni qu'elle peut avoir une conséquence sur les produits Microsoft utilisés par nos clients. »

La faille, mise à jour pour la première fois début décembre par l'entreprise de sécurité informatique française Vupen, a été découverte dans le moteur HTML de IE. Elle pourrait être exploitée pendant l'exécution, par le navigateur, d'un fichier CSS (Cascading Style Sheets) comprenant des commandes « @import.» Celles-ci permettent aux concepteurs de sites web d'importer des feuilles de style externes dans un document HTML existant. Le 9 décembre, Vupen avait émis un avis, confirmant la vulnérabilité dans IE8 sous Windows XP, Vista et 7, et dans IE version 6 et 7 sous XP. Les pirates pourraient activer le bug depuis une page web falsifiée, puis détourner le PC pour y déposer des logiciels malveillants ou y voler des informations confidentielles. Vupen, qui a mis au point et exécuté son exploit, a utilisé le code d'attaque uniquement pour réaliser des tests de pénétration auprès de ses propres clients. Mais mardi d'autres chercheurs ont rendu le bug IE public. Abysssec Security Research a ainsi publié une courte vidéo de démonstration détaillant l'attaque, et le chercheur en sécurité Joshua Drake a ajouté un exploit fonctionnel au kit de tests de pénétration du projet Metasploit. Il crédite aussi un blog de sécurité chinois pour avoir révélé la vulnérabilité le mois dernier.

Contourner les barrières existantes


Contrairement à d'autres bugs récents affectant Internet Explorer, celui-ci peut être exploité sur la dernière version 8 du navigateur tournant sur l'OS le plus récent de Microsoft, Windows 7. Surtout il parvient à détourner les dernières barrières de défenses anti-exploit DEP (Data Execution Prevention) et ASLR (randomisation des zones d'adressage). Selon HD Moore, chef de la sécurité chez Rapid7 et créateur de Metasploit, le code de Joshua Drake fonctionne de manière fiable avec IE8 sous Windows 7, mais est légèrement moins fiable sur le navigateur sous Windows XP.« La façon dont le programme contourne DEP et ASLR est remarquable » a ajouté HD Moore. En effet, celui-ci s'appuie sur une faille dans Windows qui permet aux pirates de forcer le système d'exploitation à charger des bibliothèques de liens dynamiques (DLL) en .Net obsolètes qui n'ont pas d'ASLR. « C'est le .Net qui est utilisé par le programme pour contourner l'ASLR et le DEP, » a précisé HD Moore. « C'est une technique solide qui s'appliquera à des exploits à venir, sauf si Microsoft bloque le chargement des  anciennes bibliothèques .Net. »

La stratégie d'attaque .Net a été présentée en août dernier par deux chercheurs de McAfee, Xiao Chen et Jun Xie, lors de la conférence sur la sécurité XCON qui s'est tenue Beijing. HD Moore crédite Xiao Chen pour la découverte de la technique .Net. Même si Microsoft a beaucoup travaillé les défenses ASLR et DEP, l'éditeur a reconnu que les chercheurs avaient trouvé des moyens de les contourner en exploitant des faiblesses de l'ASLR. Dave Forstrom de Microsoft n'a pas donné de date de sortie pour le patch qui corrigera cette vulnérabilité. Il indique simplement que Microsoft prendra « les mesures appropriées » une fois qu'elle aura bouclé son enquête. Le prochain Patch Tuesday régulier est prévu pour le 11 janvier 2011. Mais étant donné que la firme de Redmond sort traditionnellement une mise à jour de son navigateur tous les deux mois, et que la dernière mise à jour est intervenue la semaine dernière, il n'est pas impossible qu'il faudra patienter jusqu'au mois de février pour disposer du patch corrigeant cette faille.

(...)

< Les 10 documents précédentsLes 10 documents suivants >