Flux RSS

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

108538 documents trouvés, affichage des résultats 6961 à 6970.

< Les 10 documents précédentsLes 10 documents suivants >


(24/08/2010 17:56:21)

Les puces Power d'IBM s'endorment avec économie

IBM développe un mode complémentaire à celui de la veille profonde pour ses processeurs Power qui leur permettront de ne rien consommer quand ils sont inactifs, a déclaré un ingénieur IBM lors de la conférence Hot Chips.

Les puces Power7 disposent déjà de trois modes de veille qu'il appelle la « sieste », le « sommeil »et le « sommeil lourd », et qui sont mises en oeuvre en fonction de multiples facteurs tels que la charge de travail ou le temps de latence tolérable avant que le processeur se remette en route.  La latence est un compromis pour chaque état de veille. Ainsi, la version sieste réduit la tension de 15% d'un coeur du processeur et la reprise d'activité est immédiate. Le mode sommeil lourd réduit de 85% la consommation électrique aux huit coeurs, mais a par contre besoin de 2 millisecondes pour réactiver la puce.

Le quatrième mode envisagé, sommeil profond, devrait couper complétement l'alimentation. Le temps de latence pour la reprise est évalué entre 10 et 20 millisecondes, explique Michael Floyd, ingénieur d'IBM. Le nom de code de cette innovation est « Winkle », en l'honneur d'un personnage de roman, Rip Van Winkle qui dormit pendant 20 ans avant de se réveiller pour trouver un monde complétement changé.  Michael Floyd n'a pas donné plus détail sur ce procédé, ni sur quelle puce, il intégrera cette méthode, « il est possible que cela arrive sur une mise à jour des Power7 ou peut-être attendre la gamme suivant Power8 ».

La consommation d'énergie sur les processeus IBM Power est gérée par un microcontrôleur qui rassemble des données provenant de 44 capteurs sur chaque puce, ainsi que d'autres capteurs dans le système. Il compile ces informations pour trouver la tension optimale et la vitesse d'horloge d'un processeur à un moment donné.

(...)

(24/08/2010 17:56:04)

Un JavaOne 2010 sous les auspices d'Oracle

C'est Larry Ellison, le PDG d'Oracle, qui ouvrira mi-septembre la conférence JavaOne, la première du genre depuis que sa société a racheté Sun Systems. Ce n'est pas vraiment une surprise quand on se souvient que le bouillant patron a cité Java comme étant, avec Solaris, l'une des deux technologies l'ayant amené à convoiter l'entreprise co-fondée par Scott McNealy.

JavaOne se tiendra cette fois dans le cadre d'OpenWorld (San Francisco, 19-24 septembre), la conférence annuelle qu'Oracle consacre à l'ensemble de ses offres (bases de données, solutions de middleware, applications de gestion...), un catalogue qui grossit constamment, au fil des nombreux rachats, et s'est enrichi en une fois de toutes les offres de Sun (outre Java et Solaris, la base MySQL, les processeurs Sparc, les serveurs et solutions de stockage et les outils de gestion des identités).

Java Embedded, Java EE7 et consorts

Sur JavaOne, Larry Ellison sera accompagné de Thomas Kurian, son vice-président exécutif pour le développement des produits. L'éditeur californien parlera des investissements renforcés qu'il compte faire autour de Java pour que cette « plateforme évolutive, sécurisée et ouverte poursuive sa croissance ». Le lendemain, 21 septembre, Greg Bollela, architecte en chef de Java Embedded chez Oracle, traitera des outils de développement destinés aux applications Java embarquées dans des équipements périphériques (imprimantes, contrôleurs, équipements médicaux...). A sa suite, Roberto Chinnici, consultant technique, retracera les évolutions de la plateforme Java EE qui s'est au fil du temps orientée vers un modèle de programmation intégré. Il abordera aussi les apports du futur Java EE7.

Mark Reinhold, architecte en chef de l'entité Plateforme Java, présentera les prochaines étapes de Java Standard Edition, à l'origine simple machine virtuelle pour exécuter des programmes Java sur des terminaux et qui élargit désormais son champ d'action jusqu'au cloud. Il est également prévu que Greg Bollela, Jérôme Dochez, architecte pour le serveur d'application Glassfish chez Oracle, Jerry Evans, consultant technique, et Mark Reinhold présentent les applications Java les plus intéressantes dans différents domaines.

Quelle stratégie pour prévenir la fragmentation ?

Pendant ces quatre jours, certains entendent bien glaner des informations au-delà de ce qui est officiellement inscrit au programme de ce JavaOne. « Je m'attends par exemple à ce qu'une attention particulière soit accordée à la fragmentation de Java et à ce qu'Oracle prévoit de faire pour l'éviter », confie Al Hilwa, analyste chez IDC. Selon lui, l'éditeur devrait aussi mettre l'accent sur ses contributions à l'Open Source pour accroître sa crédibilité dans ce domaine. « Il devrait par ailleurs y avoir quelques discussions sur les problèmes de gouvernance autour de Java et sur la façon dont les mises en oeuvre parallèles de Java peuvent être certifiées ».  Les récentes poursuites menées par Oracle contre l'utilisation de Java sur la plateforme mobile Android n'ont pas été du goût de tout le monde dans la communauté Open Source, rappelle notamment Al Hilwa. Un différend judiciaire qui n'empêche pas Oracle de consacrer une session de JavaOne au test d'applications pour la plateforme cloud Google App Engine.

Une édition sans James Gosling ?

Parmi les sujets abordés lors de ce JavaOne devrait aussi figurer le projet Lambda, kit de développement Java visant à accroître la productivité des développeurs travaillant sur des modèles parallèles comme avec le framework fork/join. Autres centres d'intérêt : le serveur d'intégration Open Source Hudson, le langage de scripting Groovy pour machine virtuelle Java, la version 7 de Java SE, la HotSpot JVM, ainsi que le serveur web Jigsaw.

Quand Java était encore dans le giron de Sun, la conférence qui lui était consacrée se tenait généralement début juin. Cette année, elle intégrera donc la grand' messe annuelle d'Oracle. James Gosling, tenu pour le père du langage et habituellement considéré comme l'une des pièces maîtresses de la conférence, ne participera sans doute pas à cette édition. Pour l'instant, en tout cas, son nom ne figure pas au programme. Ce n'est guère surprenant toutefois. Il a quitté Oracle le 2 avril, un peu plus de deux mois après le rachat de Sun.

Crédit photo : D.R.

(...)

(24/08/2010 17:38:38)

Avec l'architecture Bulldozer, AMD mise sur les unités de calcul nombres entiers

Attendus en 2011, les processeurs basés sur l'architecture Bulldozer comprendront plusieurs coeurs et seront jusqu'à 50% plus rapides que les puces actuelles (Magny-Cours) reposant sur le design K10, a déclaré Dina McKinney, vice-présidente en charge de l'ingénierie chez AMD. Si la nouvelle architecture améliore significativement les performances, elle apporte également une plus grande flexibilité dans la façon dont les tâches sont exécutées dans les coeurs de processeurs. Les CPU de la famille Bulldozer seront destinés aux serveurs comme aux ordinateurs de bureau, précise encore la dirigeante. Les premières puces, connues sous le nom d'Interlagos, devraient toutefois être réservées aux serveurs et comprendront de 12 à 16 coeurs par socket.

Moins d'unités de calcul en flottant

Les concepteurs de puces comme Intel et AMD ont toujours amélioré les performances des processeurs en ajoutant des coeurs, en augmentant la fréquence d'horloge, ou en améliorant les capacités de traitement parallèle (multithreading). Un autre élément a toutefois été particulièrement soigné dans l'architecture Bulldozer : il s'agit de l'optimisation des liens et des échanges entre les différents coeurs et les autres composants internes du processeur. Prenant en compte la montée en puissance des GPU, notamment sur le marché des HPC, AMD a choisi de privilégier au sein de ses nouveaux processeurs, les unités dédiées aux calculs sur les nombres entiers au détriment des unités dédiées aux calculs flottants. Ainsi à la différence des architectures plus classiques, un processeur de la famille Bulldozer est composé de 1 à 8 blocs, chaque contenant deux coeurs dédiés aux entiers contre un seul coeur pour les flottants. Selon le Californien, il s'agit du meilleur compromis entre le nombre de transistors et la capacité de calcul. Les coeurs sont principalement dédiés aux tâches les plus courantes, tandis que les composants partagés tels que l'unité de virgule flottante ne sont utilisés que lorsque c'est vraiment nécessaire. Plus petites, car elles nécessitent moins de composants, les puces sont au final moins gourmandes en énergie. Avec une même quantité de courant électrique, AMD estime que le rendement d'un processeur Bulldozer sera jusqu'à 50% supérieur à celui d'un Opteron Magny-Cours avec 12 coeurs.

Des processeurs plus spécialisés

Dans le passé, les fondeurs axaient le développement de leurs puces autour des seules performances, mais les temps changent, explique Jim McGregor, analyste chez In-Stat. Les processeurs sont désormais conçus pour répondre aux exigences nouvelles de l'informatique pour des applications comme les bases de données ou les services Web, souligne l'analyste. Les demandes ne sont plus les mêmes pour les serveurs : certains recherchent plus de performances en virgule flottante et d'autres une meilleure bande passante pour la mémoire. 

Ces puces devraient aider AMD à élargir son offre pour serveurs et à conquérir de nouveaux marchés. La condition sine qua non pour résister à la féroce concurrence d'Intel, qui domine le segment des processeurs X86 pour serveurs. «Comment vont-ils faire contre Intel ? C'est difficile à dire," poursuit Jim McGregor. Au deuxième trimestre 2010, Intel possède 93,5 % du marché des processeurs pour serveur, tandis que la part d'AMD est descendue à 6,5 %, selon une étude 
publiée la semaine dernière par IDC. 

Mais les constructeurs de serveurs ont appris à bien travailler avec AMD, et les nouvelles puces du Californien de Sunnyvale devraient facilement trouver leur place, estime l'analyste. Les principaux fournisseurs de serveurs, - Hewlett-Packard, Dell et IBM, qui proposent tous les trois des systèmes sur base AMD Opteron, n'ont pas encore dévoilé leur intention quant à l'adoption de la nouvelle architecture Bulldozer d'AMD.

Illustration : Architecture de la plate-forme Bulldozer d'AMD

(...)

(24/08/2010 17:11:06)

Google avance vers la recherche en temps réel

Google est en train de tester une fonction de recherche en temps réel qui affiche et met à jour les résultats en même temps que l'utilisateur saisit sa requête. C'est Rob Ousbey, consultant en optimisation de moteurs de recherche qui a le premier révélé l'existence de ces tests qu'il a lui même filmé. Cette fonctionnalité se base sur les suggestions de recherches déjà intégrées au moteur, qui devinent la requête de l'internaute lorsqu'il tape les mots-clés. Tout ceci se déroule de façon dynamique, les propositions se modifiant automatiquement à mesure que les lettres entrées s'accumulent.

La fonction « temps réel » passe à l'étape supérieure : au lieu de mettre à jour les suggestions, elle met directement à jour les résultats de recherche, modifiant la page entière à chaque lettre tapée. Google a confirmé au site TechCrunch que la vidéo de Rob Ousbey était authentique, sans donner de précision quant à une éventuelle date d'intégration de cette fonction au moteur.

(...)

(24/08/2010 16:52:37)

Semestriels ZTE : Résultats robustes et orientation internationale

L'équipementier télécom chinois ZTE vient de publier ses résultats du premier semestre 2010 et ces derniers sont bons. La firme de Shenzen annonce avoir réalisé un chiffre d'affaires de 4,5 milliards de dollars en hausse de près de 11% par rapport à la même période de l'année précédente. Le bénéfice net, quant à lui, s'établit à près de 130 millions de dollars soit une hausse de 12% par  rapport au premier semestre 2009.

L'équipementier s'enorgueillit d'avoir réalisé près de 18% de son chiffre d'affaires sur les marché occidentaux (européen et américain) ce qui correspond à une hausse de 45% de la contribution de ces marchés sur le chiffre d'affaires global. Le chiffre d'affaires international de ZTE s'établit cette année à 2,3 milliards de dollars soit quasiment 50% du chiffre d'affaires global de l'équipementier.

Une vocation internationale plus prononcée

Cette volonté de se tourner vers l'international s'illustre par les différents contrats signés avec de grands opérateurs tels que France Télécom, Telefonica Spain ou encore America Movil ou plus récemment en Hongrie (cf encadré). La baisse du chiffre d'affaires asiatique s'explique par le durcissement des règlementations indiennes sur le contrôle des produits de télécommunications étrangers.

L'activité terminaux mobile a, elle, connu un bond considérable. Ainsi le chiffre d'affaires a progressé de près de 40% grâce à l'arrivée récente des réseaux 3G en Chine ainsi que l'arrivée de smartphones ZTE sous Android en Europe. L'équipementier chinois apparaît confiant pour l'avenir en ce qui concerne plus particulièrement le standard LTE (Long Term Evolution). (...)

(24/08/2010 16:14:24)

HDS repêche discrètement ParaScale

Quelques lignes sur le blog de Miki Sandorfi responsable des fichiers et des services de contenus chez HDS ont permis de savoir que le spécialiste du stockage s'était emparé de ParaScale. Inutile de taper son nom sur Google, le résultat aboutit à une page vide. Il faut dire que cette société a fermé au mois de juin dernier, faute d'avoir pu boucler son second tour de table. Hitachi Data System récupère donc les brevets, ainsi qu'une équipe d'ingénieurs travaillant sur la solution.

Le service ParaScale Cloud Strorage facilite la création, la gestion et le provisionnement d'un cloud de stockage. Pour Mike Sandorfi, cela répond exactement à la philosophie du cloud ou de l'utilisation à la demande de capacité de stockage. « Tout le monde n'a pas besoin d'avoir la même taille et le cloud n'est pas un produit unique ».

Aucun montant n'a été indiqué sur l'opération.

(...)

(24/08/2010 15:45:29)

Détournement de DLL, Microsoft livre enfin un outil de blocage

L'éditeur de Redmond a répondu aux annonces faisant état de possibles attaques zero-day contre un grand nombre de programmes Windows en fournissant un outil qui, selon l'entreprise, bloquerait ces tentatives. Cependant, elle a refusé de dire si l'une de ses applications présentait un tel risque. Beaucoup de logiciels Windows n'ont pas recours aux librairies de code - les DLL ou Dynamic Link Library - qui s'appuient sur le chemin complet qui mène au fichier, mais prennent uniquement son nom en référence. Elles offrent de fait aux pirates la possibilité de tromper l'application en lui faisant charger un fichier malveillant affublé d'un nom de DLL identique. Ils peuvent ainsi détourner des PC et y placer des malwares. HD Moore, chargé de la sécurité chez Rapid7 et créateur de la boîte à outils Metasploit utilisée pour effectuer des tests de pénétration, a été le premier à révéler ces attaques potentielles, annonçant même qu'il avait répertorié 40 applications Windows vulnérables. D'autres chercheurs lui ont emboité le pas, faisant état d'un nombre de programmes à risque qui varierait de plus de 200 à moins de 30. Dans l'intervalle, Microsoft montait au créneau pour dire aux utilisateurs que la faille ne concernait pas son système d'exploitation Windows. «Il ne s'agit pas d'une vulnérabilité dans un produit Microsoft,» a déclaré Christopher Budd, responsable de la communication s'exprimant au nom du Microsoft Security Response Center (MSRC). «Il s'agit d'un vecteur d'attaque qui piège une application en lui faisant charger une bibliothèque non fiable. » Cette responsabilité, attribuée aux développeurs d'applications et non à Windows, empêcherait Microsoft de patcher son système d'exploitation sans prendre le risque de modifier un nombre inconnu de programmes s'exécutant sur sa plate-forme. L'éditeur de Redmond et les développeurs de tierce partie doivent donc identifier lesquels de leurs programmes sont vulnérables, et les corriger séparément.

Un outil de blocage réservé aux développeurs

Pour parer aux attaques, Microsoft a, comme prévu, livré un outil (il peut être téléchargé via le lien spécifique inclus dans le document de sécurité) qui bloque le chargement des DLL à partir de répertoires distants, comme ceux inscrits sur les lecteurs USB, les sites Web et les réseaux d'entreprises, identifiés comme sources d'attaques possibles (l'équipe d'ingénierie du MSRC a publié quelques informations techniques sur le vecteur d'attaque et l'outil de blocage sur le blog « Security Research & Defense» de Microsoft). « L'outil limite le chargement des bibliothèques distantes sur une base dite par application ou au sein d'une fonctionnalité globale, » a déclaré Christopher Budd.  Ajoutant que « l'outil de Microsoft visait les entreprises, et non les utilisateurs, et ne sera pas mis à disposition des clients par le biais du service de mises à jour automatique». L'avis de sécurité de Microsoft répertorie d'autres solutions de contournement que les clients pourraient utiliser, comme par exemple le blocage du trafic des SMB (Server Message Block) sortant au niveau du firewall et la désactivation du client Web intégré de Windows, deux parades recommandées par HD Moore aux utilisateurs la semaine dernière. Christopher Budd a aussi fait valoir que les attaques identifiées par HD Moore et d'autres chercheurs constituaient un nouveau type de vecteur, mais certains ne sont pas de cet avis. «On connaît la méthode depuis 2000, et je l'ai également signalé en 2006, » a déclaré le chercheur israélien Aviv Raff sur Twitter lundi, celui-là même qui avait révélé le bogue de détournement de DLL dans Internet Explorer 7 en décembre 2006, et que Microsoft a corrigé en... avril 2009.


Une communication réduite au minimum

Aujourd'hui, Microsoft a refusé de dire si l'une de ses applications était concernée par ce défaut de programmation qui les rend vulnérables. «Nous effectuons des recherches sur nos produits, et si nous trouvons des failles, nous allons y remédier », a déclaré Christopher Budd. Auparavant, plusieurs chercheurs en sécurité extérieurs à Microsoft ont déclaré qu'ils souhaitaient savoir si l'un des logiciels de Microsoft présentait un risque, ce qui signifierait selon eux que les développeurs de l'éditeur de Redmond n'ont pas suivi les recommandations que l'entreprise avait faites aux programmeurs tiers. Christopher Budd n'a pas pu par exemple confirmer si Microsoft avait connaissance de cette vulnérabilité depuis août 2009, au moins, date, à laquelle Taeho Kwon, chercheur à l'Université Davis de Californie, dit avoir contacté l'entreprise au sujet du détournement de DLL. Un membre du service de la communication a simplement dit que Microsoft travaillait sur cette question depuis « une quinzaine de jours » seulement. Si le calendrier de Taeho Kwon est exact, l'incapacité de l'éditeur à dire lesquels de ses produits, s'il y en a, sont vulnérables à ces attaques, semblera immanquablement très étrange aux chercheurs.

(...)

(24/08/2010 14:54:48)

Entretien Jerry Kennelly, PDG de Riverbed Technology

Riverbed est un acteur dominant de l'optimisation du WAN mais le danger est de devenir une entreprise qui n'a qu'une corde à son arc. Comment pouvez-vous élargir la portée de votre entreprise ?

Jerry Kennelly : Ce que nous faisons réellement est l'accélération de la couche applicative 7 et ceci a des conséquences beaucoup plus profondes que le simple fait de rendre une ligne télécoms plus rapide et moins coûteuse qu'elle ne l'était. C'est quelque chose qui change la nature de l'infrastructure IT globale pour toutes les grandes entreprises mondiales. Tout le monde aime avoir des liens plus véloces, pour économiser de la bande passante. Cependant, il est moins coûteux de faire de l'optimisation et de la compression à travers le réseau que d'acheter des liens plus rapides. Cette solution a été utilisée aussi pour la consolidation de centres informatiques, ce qui aboutit à déménager tous les serveurs et l'infrastructure IT hors des bureaux distants des entreprises et des multiples centres informatiques, vers uniquement un ou deux centres globaux. Cette tendance a beaucoup contribué à notre croissance au cours des trois dernières années. Nos produits ont rendu cela possible car on ne peut pas faire de consolidation de datacenter à moins de délivrer des performances satisfaisantes.

Il y a environ six mois, nous nous sommes aperçus que ce que nous faisions en consolidant, c'est de créer des clouds privés. Donc, nous avons effectivement pénétré le marché du cloud. Autre conséquence, si vous vous reposez sur notre technologie pour construire un cloud privé, la version publique se fera aussi avec les mêmes solutions. Les plus grandes entreprises mondiale, fournisseurs de services ou intégrateurs de systèmes nous demandent "Comment pouvons-nous créer notre propre infrastructure cloud dans le futur ?"

Parlons de Cisco. Comment faites-vous pour concurrencer une entreprise qui a une si large gamme de produits et un très bon soutien de ses clients ?

Jerry Kennelly : Cisco est très présent sur la couche 2 et 3 du réseau, mais aujourd'hui l'action est moins sur ces  couches mais beaucoup plus sur celles de 4 à 7 (transport, session, présentation et application). Cisco est le roi des niveaux 2 et 3 et nous sommes les rois des couches 4 à 7.

Au bout du compte, tout dépend du produit. Si vous avez le bon produit, vous avez une chance de réussir. Le fait que Riverbed existe et dispose d'une plus grande part de marcgé que Cisco, prouve seulement à quel point nos produits sont appréciés. Car si ce n'était pas le cas, nous aurions mordu la poussière il y a longtemps. Cisco n'a pas d'expertise dans la couche applicative. Personne ne peut tout faire, être bon dans tous les domaines, pour toujours. Après avoir concurrencé Cisco durant 9 ans, je peux vous dire que ce ne sont pas des surhommes.

Pour lire la suite de l'entretien, cliquez ici (...)

(24/08/2010 14:13:24)

Intel et Nokia vers la 3D et la réalité virtuelle sur mobile

Intel, Nokia et l'Université finlandaise d'Oulu ont annoncé qu'ils allaient lancer, en collaboration, un centre de recherche pour créer un logiciel pour intégrer la 3D et la réalité virtuelle sur les appareils mobiles. Il sera développé par 24 ingénieurs sur la base de l'OS Open Source Meego, lancé en février par les deux entreprises. Une pré-version mobile du système d'exploitation avait été mise à disposition des développeurs fin juin. Durant une conférence téléphonique, le fondeur californien et le constructeur finlandais ont avancé qu'ils envisageaient qu'une telle application puisse fonctionner sur des smartphones et tablettes. L'Université d'Oulu est réputée pour ses travaux en électronique, en photonique et en télécommunications, mais les chercheurs utilisent aussi la plateforme de réalité virtuelle Open Source RealXtend.

Des perspectives alléchantes

« La 3D et les mondes virtuels peuvent potentiellement révolutionner l'expérience des utilisateurs mobiles », affirme Mika Setala, responsable des partenariats chez Nokia. Une des premières applications d'un tel logiciel sera de mettre en place un panneau de contrôle virtuel pour réguler la température et l'éclairage chez soi. « La réalité sera imitée pour ces deux paramètres, mais aussi pour l'énergie consommée », précise-t-il, sans donner de prévisions quant à la date de sortie. Créer des réseaux sociaux intégrés à des mondes virtuels pour appareils nomades, en utilisant les fonctions GPS et autres informations de localisation « sera une killer app, ou aura du moins un large succès », indique Heikki Huomo, directeur du Centre pour l'Excellence d'Internet à l'université. « Les consommateurs se sentiront plus impliqués avec ces technologies ».

Martin Curley, directeur des Intel Labs européens, explique que le centre de recherche se focalisera sur le développement d'un logiciel Open Source qui complètera les puces Intel. Il n'a pas non plus écarté la possibilité que ce programme puisse ouvrir la voie à la création d'autres appareils Nokia basés sur les futures architectures des circuits du fondeur.

Pas de lunettes 3D pour mobiles

En utilisant RealXtend, il a été possible de faire regarder YouTube par un avatar dans un monde virtuel. Nokia, Intel et l'Université travaillent à rendre ce type d'interactions réalisables sur des plateformes mobiles. Heikki Huomo fait au passage remarquer qu'il ne s'agit pas d'un partenariat mais bien d'une recherche en collaboration, et que les fonds investis devraient financer les 24 ingénieurs pendant une durée d'environ trois ans. De son côté, Intel possède déjà 21 laboratoires en Europe, comprenant un total de 900 employés. Le but n'est pas de construire un affichage en 3D, les expériences de ce type peuvent très bien être vécues en seulement deux dimensions ajoute-t-il. Le fait de devoir utiliser des lunettes spéciales est d'ores-et-déjà exclu, les écrans de petite taille n'ayant de toute façon pas les mêmes contraintes que les téléviseurs ou les cinémas, sur lesquels les effets 3D ne peuvent pas être vus à l'oeil nu.

Développer une technologie holographique en 3D capable de projeter une image interactive n'est pas une idée qui a été écartée à l'heure actuelle, mais l'universitaire avoue que cela risquerait de retarder le projet. Les hologrammes ont en effet pendant des années été des éléments de science-fiction, comme dans Star Wars, mais les chercheurs d'Oulu essaient tout de même « d'arriver à des hologrammes 3D réellement immersifs ».

Un avantage compétitif potentiel

Le centre de recherche offre à Nokia et Intel l'opportunité de booster MeeGo, selon Jack Gold, analyse chez J.Gold Associates. « La 3D sera plus importante pour les dispositifs mobiles à grand écran, comme les tablettes, que sur les smartphones par exemple ». Les deux entreprises essaient de rattraper l'avance des autres acteurs avec de telles technologies, surtout pour Nokia qui s'est laissée submerger sur son propre marché, alors qu'Intel domine toujours le sien. Les produits issus de ce partenariat pourraient être en mesure de se distinguer avec des applications de réalités virtuelles et de 3D. « Personne n'a le monopole de l'innovation. Cette recherche devrait relancer la compétition pour tout le monde », conclut Martin Curley.

Illustration : Nokia N9 sous MeeGo, crédit photo : DR

(...)

(24/08/2010 12:25:32)

Un brevet d'Apple pourrait sonner le glas du jailbreaking

La demande de brevet effectuée par Apple, déposée plus tôt cette année, mais mise en ligne depuis jeudi dernier, pourrait mettre un terme au jailbreaking des iPhone, iPod et iPad. Ce système permet d'utiliser des applications piratées ou non absentes de l'AppStore. Pourtant, la méthode a récemment été déclarée conforme aux lois du copyright définies par le US Digital Millennium Copyright Act.

Alors que le brevet devait principalement protéger les utilisateurs contre les voleurs, grâce à un ensemble de mesures de sécurité éventuellement prévues, la firme de Cupertino semble vouloir éradiquer le jailbreaking, en dépit d'une pratique d'utilisation qui se veut courante.

Selon le site technologique Cnet, le brevet « systèmes et méthodes d'identification des utilisateurs non autorisés d'un dispositif électronique », comprend une télécommande coupe-circuit qui pourrait rapidement restaurer un iPhone, un iPod ou un iPad à ses paramètres initiaux. Outre le potentiel de restauration des paramètres, Apple a également l'intention d'envoyer des avertissements aux propriétaires par courrier électronique ou par message texte lorsque des fonctions telles que le jailbreak ou le désimlockage sauvage sont détectées.

(...)

< Les 10 documents précédentsLes 10 documents suivants >