Flux RSS

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

108538 documents trouvés, affichage des résultats 5371 à 5380.

< Les 10 documents précédentsLes 10 documents suivants >


(12/01/2011 14:19:36)

Interview Warren East, CEO d'ARM : « Le marché du PC n'est pas notre cible»

Les processeurs à architecture ARM équipent la plupart des smartphones et des tablettes tactiles commercialisés dans le monde, et, avec le support de Windows, le fabricant pourrait bien maintenant concentrer ses efforts sur le vaste marché du PC, un secteur dont il est pratiquement absent. D'autant que Nvidia a aussi annoncé qu'elle mettait au point son premier CPU sur base ARM - nom de code de Denver -, destiné aux PC et à certains serveurs.

Malgré ces circonvolutions, les smartphones et les tablettes restent la priorité d'ARM, comme l'a affirmé son PDG Warren East, lors d'un entretien où il s'est exprimé sur Windows, le marché du PC et les futurs développements de l'architecture ARM.

Agam Shah : Qu'est-ce qui a conduit Microsoft à porter Windows sur ARM?

Warren East : Microsoft voulait couvrir un secteur beaucoup plus large que celui du seul PC, notamment sur le marché des appareils connectés à Internet, sur lequel ils peuvent constater que le processeur ARM équipe la plupart des dispositifs. D'où la nécessité pour eux d'y porter leur système d'exploitation. C'est une bonne chose que Microsoft en soit finalement arrivée à cette conclusion. Elle fait là un pari audacieux.

Cela signifie-t-il qu'ARM va désormais cibler le marché du PC ?

Nous n'avons jamais envisagé de cibler le marché du PC. C'est la plate-bande d'Intel, et l'OS de Microsoft ne fonctionne pas sur ARM. Cela serait d'ailleurs extrêmement coûteux avec à la clef un gain pas franchement à la hauteur. D'un point de vue financier, chaque fois que quelqu'un achète un PC, ARM touche des royalties sur les composants. La seule chose qui manque, c'est le CPU, dont le prix de vente est de l'ordre de 40 à 50 dollars. Certes, cela représenterait une ressource importante pour nous, surtout compte tenu du volume de PC vendus, qui atteint 300 millions d'unités. Mais clairement, ce que nous pourrions vraiment gagner en plus n'est pas significatif.

À quel moment verra-t-on Windows sur des matériels tournant sur processeur ARM?

Pour cela, il faut poser la question à Microsoft.

Est-ce que le portage de Windows sur ARM est compliqué ?

Le problème du portage sera très difficile et très coûteux à résoudre pour Microsoft. Après 25 ans d'histoire entre le système d'exploitation Windows et le PC, la question ne relève pas que d'un simple transfert du kernel. Il y a toutes les applications, les pilotes de périphériques. C'est un énorme travail. On comprend pourquoi Microsoft n'a pas jugé bon effectuer ce portage jusqu'à ce jour.

Pour lire la suite de cette interview, rendez-vous dans notre rubrique Entretien (...)

(12/01/2011 12:48:27)

Facebook, vecteur puissant de malware sur smartphone

« L'iPhone fonctionne dans un environnement plus contrôlé et le modèle de sécurité de BlackBerry est assez fort. Android fonctionne lui dans un environnement plus ouvert et donc plus exposé aux attaques, » explique Graham Cluley lors d'un entretien à nos confrères d'IDG NS. Étant donné la popularité croissante des téléphones Android dans l'entreprise, le consultant alerte les responsables IT sur les potentiels risques. Les logiciels malveillants sont transmis sur les téléphones via des messages Facebook qui sont en fait du spam très élaboré. Un rapport de Sophos sur les menaces qui doit sortir la semaine prochaine met en avant ce type de risques provenant du site de réseau social. « Le spam est un élément incontournable, mais les motivations et les méthodes changent et se perfectionnent pour tirer plus de bénéfices pour les spammeurs, » indique Graham Cluley.

Un diffuseur puissant sur mobile

Récemment, BitDefender a publié un rapport avertissant que Facebook est devenu la plus grande menace pour les malware mobile. L'éditeur s'appuie sur des statistiques de Google révélant que près d'un quart des utilisateurs de Facebook ont eu une tentative de scam sur le réseau social depuis leur téléphone portable. Pour des besoins de tests, le spécialiste de la sécurité a étudié une URL portant sur le statut sur Facebook d'une jeune fille qui s'est fait exclure de son école. Elle a généré 28 672 clics, dont 24% provenait de mobiles. Les internautes qui ont cliqué sur le lien - que ce soit depuis leur PC ou leur appareil mobile - ont téléchargé un ver. George Petre, responsable Threat Intelligence chez BitDefender  explique « lorsque les chercheurs en matière de sécurité se concentrent sur la recherche de logiciels malveillants spécialement conçus pour les plateformes mobiles, ils perdent de vue une source importante de la diffusion les réseaux sociaux ».

(...)

(12/01/2011 13:21:15)

Le consortium CPTN, piloté par Microsoft, renonce au rachat des brevets de Novell

Début décembre 2010, Microsoft, Apple, Oracle, et EMC avaient informé l'organisme régulateur allemand de leur intention de créer le consortium CPTN Holdings en vue de l'achat de 882 brevets détenus par Novell. Mais le 30 décembre, le groupe dirigé par Microsoft a retiré sa demande d'autorisation sans fournir aucun motif aux autorités allemandes. Ces dernières semaines, l'Office fédéral des cartels allemand avait reçu des lettres et des recommandations de diverses organisations Open Source, notamment de l'Open Source Initiative (OSI) siégeant aux États-Unis et de la Free Software Foundation Europe (FSFE).

En effet, ces derniers s'inquiétaient vivement du fait que ces brevets, dont certains intègrent du code originel Open Source, puissent tomber entre les mains d'entreprises dont les produits sont en concurrence avec un logiciel libre. Compte tenu de l'engagement passé de Novell dans le développement du logiciel libre, il semble très probable que certains de ces brevets recouvrent des technologies utilisées dans le développement de plusieurs logiciels Open Source. « Les fondateurs et les dirigeants du CPTN portent avec eux une longue histoire attestant de leur opposition aux logiciels libres et de leur volonté d'en détourner la valeur, alors qu'ils sont au coeur de l'infrastructure de l'Internet et de la plupart des logiciels et des services parmi les plus répandus. De plus, la plupart du temps, les produits Open Source sont les seuls ou les principaux concurrents de produits représentés par les entreprises du consortium CPTN, » a déclaré l'OSI dans son courrier.

Des atteintes pour le développement du logiciel libre


Karsten Gerloff, président de la FSFE, écrit pour sa part que « sur de nombreux marchés comme ceux des systèmes d'exploitation, des suites de productivité bureautique, ou encore ceux des serveurs web, les logiciels libres sont les principaux concurrents à l'offre de Microsoft. D'ailleurs, l'éditeur de Redmond n'a pas manqué d'initier certains procès pour revendiquer la propriété intellectuelle de ces brevets et étouffer la concurrence du logiciel libre, comme cela a été le cas pour TomTom, et mène depuis longtemps une campagne ininterrompue pour revendiquer des droits infondés sur des brevets et instiller la peur, l'incertitude et le doute quant aux perspectives du logiciel libre. » Il ajoute encore que « le CPTN pourrait également décider de vendre les brevets à des tiers, pour les mettre en sommeil, afin d'empêcher leur utilisation. » Il rappelle aussi que « en septembre 2009, Microsoft avait vendu 22 brevets explicitement liés à GNU/Linux lors d'une vente aux enchères où seuls des participants triés sur le volet avaient été admis. »

La décision de retirer le projet peut être considérée comme une victoire pour les défenseurs de l'Open Source. Mais, selon certaines analystes, cela ne signifie pas qu'il ait été définitivement ajourné. A ce jour, Novell, en cours de rachat par Attachmate, a convenu d'une vente séparée de son portefeuille de brevets au CPTN pour un montant de 450 millions de dollars. Quant à Microsoft, l'entreprise n'a fait aucun commentaire au sujet du retrait du projet de consortium.

(...)

(12/01/2011 11:10:32)

UFC-Que Choisir propose un kit pour résilier son abonnement Internet fixe ou mobile

La Loi de finances 2011 récemment adoptée met fin à la TVA réduite à 5,5% sur la partie télévision des forfaits télécoms (Internet fixe et téléphonie mobile). Au 1er février 2011, les offres des opérateurs permettant de recevoir la télévision par Internet (abonnements triple play) ou en 3G sur son mobile seront donc entièrement soumises à la TVA à 19,6%. Les opérateurs ont donc décidé de répercuter cette hausse directement sur la facture de leurs abonnés.

Autre conséquence, en modifiant les conditions contractuelles de leurs services, les opérateurs vont offrir la possibilité aux abonnés de résilier leur contrat sans frais, et jusqu'à 4 mois après l'application des nouveaux tarifs, conformément au code de la consommation (article L121-84).

Une aide précieuse pour ne pas perdre de temps

L'UFC-Que Choisir a ainsi réalisé un kit pour informer les consommateurs sur leurs droits et les aider à résilier leur abonnement dans de bonnes conditions. Ce mode d'emploi de la résiliation est disponible auprès des 160 associations locales de l'UFC-Que Choisir (liste et coordonnées disponibles sur le site Internet de l'UFC), ainsi que sur le portail de l'association.

Par ailleurs, l'UFC-Que Choisir annonce la mise en place d'un observatoire des pratiques des opérateurs en lançant un appel à témoignage sur son site Internet. Les consommateurs qui rencontrent des difficultés avec leur opérateur de téléphonie mobile ou leur fournisseur d'accès à Internet peuvent ainsi les signaler et transmettre toutes pièces en relation avec leur démarche.

Crédit photo : Acer

(...)

(12/01/2011 16:31:25)

Alacritech accélère les performances des NAS

L'ANX 1500 est la première appliance d'accélération de fichiers NFS d'Alacritech. Cet équipement combine des SSD et DRAM, avec firmware spécialisés, ce qui permet de mettre en cache plus de données et de métadonnées au format NFS v3 et de soulager ainsi la tâche des NAS. L'ANX 1500 réduit ainsi le nombre de disques durs qui doivent être déployés dans un environnement de haute performance. Aujourd'hui, les grandes entreprises ont souvent recours à une pratique connue sous le nom « short stroking », qui consiste à minimiser les délais de repositionnement des têtes de lecture, en réduisant la surface utilisée sur chaque plateau. Le constructeur estime que sa solution est rentable « plus rapidement que toute autre solution de stockage » et fournit de loin le plus bas coût pour les opérations par seconde (OPS). 

Par exemple, un seul ANX 1500, avec 4 To de disques SSD, peut fournir 120 000 opérations NFS par seconde (OPS) pour environ 110 000 dollars, et nécessite seulement environ un cinquième de l'infrastructure NAS qui, autrement, serait nécessaire pour une telle performance. Le prix de base de l'ANX 1500 débute à 70 000 dollars. « Jusqu'à présent, les entreprises ont tenté de bricoler des solutions qui nécessitent de plus en plus de disques et dont les performances sont imprévisibles et d'une grande complexité (augmentation de la latence et capacité de contrôle restreint) », a déclaré Larry Boucher, CEO d'Alacritech et d'ajouter « ils prennent le risque de perdre des données ou de voir leurs informations critiques rendues publiques et au final, payer plus pour réparer leur choix ». 

Selon le dirigeant, la solution améliore le traitement du protocole NFS v3, en abaissant le temps de réponse des applications. Pour ce faire, elle distingue de manière intelligente les données stockées dans le cache et celles traitées par le NAS. Ce procédé accélère la récupération des données les plus actives ou utilisées via le cache, précise Larry Boucher. 

Le cache pour éviter les goulets d'étranglement

« Nos tests confirment qu'aujourd'hui le rendement de la mise en cache des métadonnées sur le ANX 1500 est très puissant, » a déclaré Steve Kowalski, directeur exécutif de l'ingénierie des systèmes chez Sony Imageworks, dans un communiqué et de constater « que des économies d'échelles peuvent être réalisées avec cet outil ». Sony, qui est principalement un client de NAS NetApp, n'a pas encore utilisé l'ANX 1500 dans un environnement réel, mais dans une situation de test comprenant 4 noeuds NAS d'Isilon Systems. 

Alacritech a financé le développement de la solution présentée en grande partie avec les 34 millions de dollars de financement issus de sociétés de capital-risque au cours des dernières années. La société basée à San Jose a été fondée en 1997 par Larry Boucher, qui a également fondé le fournisseur Adaptec et Auspex System. Il est connu aussi pour avoir inventé le système de fichiers réseau qui est la base de beaucoup de systèmes NAS d'aujourd'hui. 

La plupart des technologies d'accélération NAS vendues aujourd'hui doivent une partie de leur propriété intellectuelle à Alacritech, selon Jeff Boles, analyste principal au Taneja Group. Cela a permis à la société non seulement de maintenir un flux de revenus au cours de la dernière décennie, mais aussi d'investir dans le développement de la technologie d'accélération pour le protocole NFS.  « Certaines de ces innovations d'accélération du protocole semblent particulièrement intéressantes quand il est appliqué à NFS, » explique Jeff Boles et d'ajouter « l'un des principaux goulets d'étranglement des systèmes NAS aujourd'hui concerne la façon dont le protocole NFS est géré ». Un head NAS ou un contrôleur peut manquer des opérations NFS. Les utilisateurs de la solution Alacritech ont été en mesure de traiter 500 000 opérations NFS par seconde, en utilisant 10% des CPU. « Ce qui suggère qu'il y a beaucoup plus à faire » explique l'analyste.

 


(...)

(12/01/2011 10:58:21)

Internet mobile, un usage majoritairement personnel

L'équipementier Cienna s'est intéressé aux connexions à l'Internet mobile en France, Allemagne et Royaume-Uni. Le cabinet YouGov a réalisé une étude sur le sujet pour son compte dont il ressort que les usages professionnels ne sont pas prioritaires pour les usagers actuels.

L'utilisation majeure de l'accès Internet mobile est le surf sur le web (45% en France, 55% en Allemagne et 47% au Royaume-Uni), notamment pour conserver le contact avec ses amis via des outils comme les réseaux sociaux. Pourtant rien n'interdit un usage professionnel : 75% de la population française utilise une connexion Internet mobile dont 88% sont satisfaits ; les chiffres étant respectivement 73% et 81% en Allemagne contre 65% et 85% au Royaume-Uni. La France est doc clairement au sommet pour l'accès Internet mobile. Même s'ils sont satisfaits de la qualité de leur liaison, 22% des Français envisagent de changer d'opérateur.

48% des adultes se connectant via un accès mobile utilisent celui-ci comme accès principal en France contre 53% en Allemagne mais seulement 23% au Royaume-Uni. Malgré ces bons chiffres, le marché n'est pas saturé. 17% des Français pas encore équipés, 12% des Allemands et seulement 4% au Royaume-Uni envisagent de se doter d'un tel accès. Mais, à l'inverse, 43% des Français non-équipés, 54% des Allemands et 72% des Britanniques n'en voient pas l'utilité.

Crédit photo : D.R.
(...)

(12/01/2011 10:20:26)

Le responsable informatique "présumé" de l'ETA arrêté en France

Le rôle du DSI est décidément central pour toutes les organisations. L'arrestation d'Iraitz Guesalaga, le responsable informatique "présumé" de l'organisation terroriste basque ETA, est ainsi jugée comme un coup sévère porté à celle-ci. Le caractère clandestin de l'organisation indépendantiste de lutte armée influençait singulièrement le poste de responsable informatique. Iraitz Guesalaga, âgé de 27 ans, était ainsi surtout en charge des moyens de communication entre les membres et notamment des outils de cryptage.

Le système de communication va ainsi voir sa performance et sa sécurité être singulièrement diminuées au sein de l'ETA, impactant fortement sa capacité opérationnelle. L'organisation a d'ailleurs annoncé un cessez-le-feu permanent.


Crédit photo : Google Maps (...)

(12/01/2011 10:18:54)

Sigma construit son 3ème datacenter

Cette activité représente près du tiers de son chiffre d'affaires, qui était de  49 millions d'euros (ME)  sur l'exercice 2009. Ce troisième datacenter sera situé sur un autre lieu que les deux centres de données actuels, basés au siège de la société. Il aura aussi d'autres caractéristiques. « Des capacités supplémentaires pour anticiper la croissance de ce marché, nous explique Christophe Le Jeune, responsable du pôle infogérance de Sigma, mais aussi les derniers niveaux de services, une gestion de l'énergie différente (puisque les coûts de l'électricité vont augmenter de 10% dans les années qui viennent) et des possibilités de colocation, ce qui sera un atout supplémentaire vis-à-vis de nos clients ».

La société se montre particulièrement optimiste sur ce marché de l'infogérance d'infrastructures qui est son axe de développement privilégié. Elle s'adresse ainsi  aux PME de plus de 200 postes, des entreprises le plus souvent multi-sites,  et compte aussi quelques grands comptes, sachant que ces grands comptes sont plutôt l'apanage des grandes SSII. Sigma vise un marché intermédiaire où les PME régionales et multi-régionales foisonnent, ce qui explique ses croissances de 9% en 2009, de 15% en 2010, de 20% prévus en 2011 pour l'infogérance d'infrastructure.

Nos clients doivent avoir du haut de gamme


« Nous sommes parvenus sur ce marché, note  Christophe Le Jeune, à nous différencier par notre capacité à prendre en charge l'infrastructure des systèmes d'information d'un client car nous avons des exigences de disponibilité très élevées. Nos clients doivent avoir du haut de gamme, sans en supporter le coût, telle est notre conception de l'infogérance ». Sigma propose également des services d'infrastructures à la demande, stockage à la demande, machine virtuelle, par exemple et de la gestion de parcs.

Sigma, outre son activité classique de SSII (conseil et intégration), celle d'infogérance qu'il développe fortement, édite des logiciels métiers et des logiciels transverses.  Avec 41% du chiffre d'affaires, l'édition est d'ailleurs la première activité de Sigma, suivi du conseil et de l'intégration, 30%, et de l'infogérance, 29%. La société recherche des possibilités de croissance externe pour renforcer ses compétences dans l'infogérance à distance et l'intégration de systèmes. « Une entreprise proche de nos méthodes et avec une clientèle complémentaire «  note Christophe Le Jeune.

(...)

(12/01/2011 10:08:29)

D'ici deux ans, un tiers des fonctions de BI seront exploitées sur mobiles

« D'ici 2014, le modèle actuel de la BI gérée par les départements informatiques, basé sur la publication de rapports, sera en voie de disparition dans un grand nombre d'entreprises, considère Neil Chandler (en photo), directeur de recherche chez Gartner. Celles-ci vont changer les outils de BI et décisionnels qu'elles utilisent ainsi que la manière dont elle se les procurent et les exploitent ». Pour aider les entreprises à évoluer vers ce nouveau type d'usage, Gartner donne quatre grandes prévisions.

En 2013, 33% des fonctionnalités de la Business Intelligence seront accessibles depuis des terminaux portables. Dans un premier temps, la BI mobile va essentiellement consister à porter des rapports et des tableaux de bord préexistants sur des appareils mobiles. Mais d'ici 2012, Gartner prévoit que les entreprises et les éditeurs développent des applications décisionnelles mobiles pour des tâches ou des domaines spécifiques. Cette évolution devrait considérablement élargir la population des utilisateurs de BI et attirer ainsi des investissements importants sur le marché.

Des environnements décisionnels collaboratifs

En 2013 également, 15% des déploiements de projets de Business Intelligence combineront des outils de collaboration, des applications de BI et des logiciels de réseaux sociaux pour créer des environnements décisionnels collaboratifs. D'ailleurs, les entreprises commencent déjà à évoluer vers cette approche. Au cours des 12 à 18 prochains mois, ces efforts vont se poursuivre à mesure que les entreprises commencent à gérer leurs activités de manière plus proactive, à capturer et à optimiser les processus de décision. Les environnements collaboratifs stimuleront les investissements dans la nouvelle BI et les applications décisionnelles, en particulier dans celles liées aux fonctions collaboratives et aux réseaux sociaux. Gartner a déjà noté qu'un certain nombre d'éditeurs de logiciels ont commencé à relever ce défi.

En 2014, 30% des applications d'analyse utiliseront les fonctions « In memory » pour améliorer la vitesse de calcul. Elles utiliseront également des capacités proactives, prévisionnelles et prédictives. La même année, 40% des dépenses consacrées aux outils d'analyse de l'activité seront orientées vers les intégrateurs de systèmes, et non pas vers les éditeurs de logiciels.Traditionnellement, les entreprises achetaient les produits presque exclusivement chez les fournisseurs de logiciels. De leur côté, les intégrateurs de système aidaient les acquéreurs à les mettre en place. Cependant, l'augmentation du nombre de projets tournés vers les utilisateurs, les sources d'information externes et l'intégration de contenu non structuré rendent cette approche traditionnelle de plus en plus risquée et potentiellement non compétitive. Les acheteurs peuvent désormais évaluer les solutions - pour l'efficacité des campagnes marketing dans les services financiers par exemple - comme des packages complets, et sélectionner un fournisseur de contacts commerciaux, souvent prestataire de services, pour les mettre en place.

Illustration : Neil Chandler, directeur de recherche chez Gartner (crédit : Gartner) (...)

(12/01/2011 10:08:22)

Les utilisateurs de Mercury d'HP protestent contre la hausse de la maintenance

La maintenance des logiciels serait-elle destinée à devenir le grand terrain de lutte entre les éditeurs de logiciels et leurs clients ? Après la longue guerre entre SAP et l'USF (club des utilisateurs de SAP francophones) qui s'est terminée par une victoire quasi-totale des clients, l'eCUME, l'Association des utilisateurs des outils Mercury (rachetés par HP), s'inspire du précédent et hausse le ton contre l'éditeur. Encore une fois, c'est la maintenance qui est en jeu.

La solution Quality Center (QC), qui appartient aujourd'hui à HP, dispose depuis sa version 10 d'une maintenance en deux niveaux : « enterprise » et « premier ». Cette dernière est évidemment plus chère mais l'éditeur y a intégré des fonctionnalités relevant, selon les utilisateurs, de la maintenance évolutive jadis intégrée au contrat de base. Pour HP, bien sûr, la version Premier est un nouveau service mais semble en peine de le démontrer ou, en tous cas, de convaincre ses clients. La distinction entre deux niveaux de maintenance ressemble donc furieusement à une augmentation de tarifs déguisée.

De plus, l'association des utilisateurs se plaint de la surdité de HP face à ses demandes d'explications. Les relations entre l'éditeur et les utilisateurs se dégradent donc rapidement. Encore une fois, ce n'est pas sans rappeler le démarrage de la guerre de la maintenance SAP-USF. (...)

< Les 10 documents précédentsLes 10 documents suivants >