Flux RSS

PC et portables

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

2797 documents trouvés, affichage des résultats 1121 à 1130.

< Les 10 documents précédentsLes 10 documents suivants >


(28/01/2010 17:07:55)

Apple obtient le brevet "proximity sensing" pour écran tactile multitouch

Ce brevet est l'un des 13 accordés à Apple, peu avant le dévoilement de sa tablette multitouch iPad mercredi. Le fait a été signalé par Patently Apple, un site internet qui permet de suivre les demandes de brevet et les prix reçus par la société, sorte d'indicateur des innovations et des investissements réalisés par Apple en matière technologique. En tapant le numéro de brevet 7653883 dans le moteur de recherche de l'US Patent and Trademark Office qui donne accès à la totalité du contenu, on peut voir que le «proximity sensing, » déposé initialement au cours du troisième trimestre 2005 par Apple, s'applique à plusieurs techniques différentes, seules ou associés, et concerne la capacité de détection à proximité d'un objet tel que le doigt ou le stylet. Les techniques concernées incluent l'ombre optique, les champs électrique, inductif, capacitif et autres, un ou plusieurs capteurs. Patently Apple suggère que le coeur du brevet peut effectivement concerner la maîtrise de la technologie de détection de proximité et étend cette capacité à l'interface visuelle de l'utilisateur. Ce brevet fait partie d'une série d'applications qu'Apple utilise dans la technologie d'affichage, y compris celle qui rend les pixels des écrans LCD "tactiles", laquelle permet d'éliminer plusieurs couches dans la technologie d'écran actuelle, pour obtenir un écran plus lumineux, plus mince et plus léger. Un récent brevet déposé par Apple confirme que l'entreprise californienne met au point une technique pour réaliser des écrans tactiles plus minces, et plus lumineux pour ses ordinateurs portables et ses appareils mobiles, l'iPhone en particulier. [[page]] L'un des documents du brevet contient plusieurs schémas montrant un doigt entrant dans la proximité du "champ de détection" d'un élément spécifique (un bouton par exemple) dans l'interface utilisateur, affiché sur l'écran d'un périphérique qui ressemble à une tablette. Le système permet alors à un "élément particulier l'interface graphique," comme un clavier virtuel, d'apparaître. Après avoir tapé le texte, les doigts s'éloignent de l'écran, le système désactive l'objet et le fait disparaitre de l'écran. La technologie décrite laisse entrevoir les possibilités du « proximity sensing » et montre comment Apple peut offrir à l'utilisateur mobile une expérience beaucoup plus souple et plus fluide, dans une interface où les éléments semblent flotter les uns au-dessus des autres. L'interface graphique a évolué pour devenir moins évidente, perdant au passage sa fonction d'intermédiaire comme c'est le cas avec le système actuel des fenêtres et des éléments contrôlés à la souris ou au clavier. Mais l'interface utilisateur multitouch réalisée pour l'iPhone et l'iPod Touch a marqué une étape dans la façon de faire interagir l'utilisateur avec un appareil portable. L'approche est similaire à celle préconisée par l'ancien chercheur de l'Université de New York, Jeff Han, qui avait fait en 2006 la démonstration d'un écran tactile très sophistiqué à la conférence annuelle de la TED. Au cours de sa démonstration, Jeff Han avait, à plusieurs reprises, envisagé le fait que l'interface conventionnelle, celles des claviers physique et virtuel, disparaîtrait au profit d'une interface tactile pour la manipulation des données et des images. Depuis, il a fondé Perceptive Pixel, une entreprise à l'origine du Multi-Touch Wall réalisé en 2008 et utilisé par le réseau câblé CNN. La vidéo de Jeff Han sur le site www.ted.com (...)

(27/01/2010 17:07:10)

HP annonce des offres globales sécurité

Les services sécurité proposés par HP «  concernent les applications, la continuité de l'activité, les contenus, l'intégrité des données, les centres de calcul, les terminaux, les réseaux, la gestion des identités et le contrôle d'accès, la gestion du risque et la sécurité opérationnelle, » comme le détaille HP dans son communiqué. Selon la compagnie de Palo Alto, « ce vaste portefeuille de services doit permettre aux entreprises et aux administrations de mettre en place une stratégie de sécurité complète afin de réduire l'exposition de leurs infrastructures aux risques ». Ainsi que l'a déclaré Chris Whitener, en charge de la stratégie du programme HP Secure Advantage « cette offre intègre les domaines clé de l'infrastructure technologique, depuis les postes de travail et les imprimantes jusqu'au datacenter et au cloud. Cela concerne aussi bien le conseil que les services gérés en interne et l'externalisation,» ajoutant que « les produits tiers inclus dans le package seraient pré-testés afin de garantir leur compatibilité et leur intégration. » HP veut désormais proposer un point d'entrée unique pour de nombreux besoins de sécurité, aidant ainsi les entreprises à réduire complexité, risques, et coûts. Une offre sécurité packagée De fait, la gamme de services « HP Security, Compliance and Continuity Services » se présente comme un «modèle de référence commun» mis à la disposition des 10 000 professionnels de la sécurité de HP et des consultants répartis dans le monde (depuis l'acquisition de EDS en août 2008). Bien que la marque EDS, acquise pour 13,9 milliards de dollars, n'est plus utilisée officiellement, elle a transformé HP en acteur majeur des services d'entreprise et d'externalisation, avec IBM comme seul concurrent. «Aujourd'hui, nous avons des milliers de clients à la fois HP et EDS dans le secteur public, ce qui n'était pas le cas auparavant», souligne Chris Whitener. « En proposant des offres de sécurité en « groupes de services et en catégories bien identifiables, » dit-il, « l'objectif de HP, transformé depuis l'intégration de EDS, est de rendre l'évaluation des besoins et l'estimation du coût des projets aussi simple que possible pour les clients. » [[page]] La sécurité et la conformité figurent parmi les principales préoccupations des entreprises, que celles-ci soient portées par des menaces ou par la pression réglementaire. Le "Cloud Computing Security Assessment» a été mis en place pour « aider les clients à comprendre quelles transformations ils doivent réaliser pour parvenir jusqu'au cloud" explique Chris Whitener. Cela les conduits à examiner dans quelle mesure les applications qu'ils utilisent dans leurs services, peuvent encore fonctionner de manière optimale dans un environnement cloud, ou encore de s'interroger sur les questions posées par la violation des règles relatives à la vie privée ou à la confidentialité des données, ou bien de prendre en compte les exigences de sécurité dans le domaine du paiement par carte bancaire, par exemple. L'accès non autorisé à certaines informations peut en effet conduire à des infractions qui ont un coût pour l'entreprise et peut engendrer des pertes commerciales. Par exemple, les solutions intégrées aux environnements d'impression - HP Access Control Printing Solution Suite et HP Scanjet Enterprise 7000n Document Management Workstation Series - permettent de réduire ces risques à l'aide de fonctions d'administration avancées. Des solutions adaptées à des failles bien ciblées Le « HP Enterprise Secure Key Manager » est là pour centraliser et renforcer la sécurisation des données, afin de limiter les coûts liés au risque de vol ou de perte d'informations sensibles. Cette solution dirige les clients vers des politiques de sécurité et fournit une administration cohérente et unifiée des clés de chiffrement sur l'ensemble de l'infrastructure informatique. "Application Security Center of Excellence Services" vient quant à elle empêcher les attaques ciblées sur des applications web. Elle aide aussi les clients à définir une stratégie rapide en fonction des risques commerciaux, mais les conseille aussi sur la technologie adéquate à utiliser. Enfin, une offre "SAS Project Services for Application Security Center" prend en charge la mise en oeuvre de ces initiatives de sécurité dans une configuration entretenue et gérée par HP. (...)

(27/01/2010 13:55:07)

Attention au virus dissimulé derrière un test de QI

L'éditeur BitDefender, spécialisé dans les solutions de sécurité informatique, a annoncé avoir identifié une menace sur Internet "alliant le comportement destructeur des virus aux mécanismes de diffusion des vers". Ce virus "Win32.Worm.Zimuse" s'introduit dans les ordinateurs sous la forme de test de QI. Une fois exécuté, il peut causer d'importantes pertes de données car il écrase les 50 premiers Ko de la zone d'amorçage du disque dur. BitDefender recommande bien sûr d'installer et de mettre à jour régulièrement une suite antimalware complète avec une protection antivirus, antispam, antiphishing et pare-feu. Le minimum quand on utilise un système Windows. (...)

(25/01/2010 16:51:54)

Selon une étude Computacenter, la virtualisation reste difficile à amortir rapidement

Les entreprises cherchant à introduire une solution de virtualisation dans leur système d'information devraient considérer avec plus d'attention le temps nécessaire à mise en oeuvre de leur projet, car le retour sur investissement risque de tarder. C'est en tout cas le point de vue de Computacenter, qui a interrogé 130 décideurs informatiques sur leur expérience en environnements virtualisés. Parmi l'ensemble des entreprises concernées par la mise en oeuvre de projets de virtualisation de postes de travail et d'applications (VDI), seules 4% peuvent se prévaloir d'un retour sur investissement correspondant à leur attente. Pour celles concernées par la virtualisation de serveurs, l'étude montre une situation à peine meilleure, puisque seules 6% estiment avoir atteint les résultats escomptés. L'enquête de Computacenter souligne également la persistance des idées fausses en ce domaine, puisque 83% des personnes interrogées continuent d'affirmer qu'avec la VDI, il leur serait plus facile de gérer les applications de bureau. «Les entreprises doivent être plus réalistes sur les projets de virtualisation», a déclaré Paul Casey, le patron de la plate-forme datacenter chez Computacenter. "Nombre d'entreprises ne réalisent pas le retour sur investissement attendu parce qu'elles travaillent principalement avec les outils de supervision propres au vendeur qui ne prennent pas toujours en compte a réalité des éléments qui les concernent. Forcément les résultats sont biaisés. » L'autre raison, toujours selon Paul Casey, vient de ce que les clients ne savent pas utiliser ces outils correctement. «Les chiffres les rendent optimistes», a déclaré Paul Casey. "Mais avec les mêmes outils, nous obtenons un chiffre différent. Ainsi, quant le client estime un retour sur investissement à 6 mois, nous sommes à 12. » Comment bien gérer des postes de travail virtualisés ? Andy Goddard, responsable du centre d'expertise postes de travail et travail collaboratif chez Computacenter est d'accord. "Il y a beaucoup de malentendus: certaines personnes y trouvent beaucoup de bénéfices et d'autres aucun. C'est une chose d'introduire la virtualisation sur les postes de travail, c'en est une autre de la gérer." La question des outils n'est pas la seule, précise cependant Paul Casey. «Les organisations doivent adopter une vision à plus long terme des solutions de virtualisation et du retour sur investissement qu'ils peuvent en attendre. Il y a des choses qui ne sont pas facilement mesurables. La philosophie du ROI, essentiellement basée sur des économies de coûts, pose problème. Les avantages réels sont plus flexibles. Estimer le bénéfice de déménager une entreprise de bureaux pouvant accueillir 1000 salariés vers des bureaux pouvant en accueillir 500 n'est pas si facile. " Paul Casey et Andy Goddard conviennent tous deux qu'il est important de regarder au-delà des outils des supervisions. «Nous avons à faire à une panoplie d'outils variés», a déclaré M. Casey. " Sans vouloir avantager un produit par rapport à un autre, je dirais que Athene de Metron est un bon outil en matière de gestion des ressources, et vCommander d'Embotics le mieux adapté au contrôle des coûts des environnements virtuels ». Malgré ces revers, les entreprises ne freinent pas leurs déploiements en terme de consolidation et de virtualisation. Pourtant il y est nécessaire de repenser certaines choses. " Si la demande reste forte sur le marché de la virtualisation, il faut toutefois revoir la gestion et les technologies. La clé serait de repartir de zéro afin de réfléchir sur les plates-formes, la taille et l'échelle des machines virtuelles, et sur la mise en oeuvre des outils de gestion. La manière de faire travailler les équipes doit également être repenser. Dans tous les cas, il est nécessaire d'adopter une vision d'ensemble. » (...)

< Les 10 documents précédentsLes 10 documents suivants >