Flux RSS

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

108538 documents trouvés, affichage des résultats 5501 à 5510.

< Les 10 documents précédentsLes 10 documents suivants >


(31/12/2010 14:59:52)

Meilleurs voeux pour 2011

Nous passerons bien entendu cette année encore à votre service. Nous en profitons pour vous indiquer les dossiers que nous traiterons dans les prochains mois : 

- Janvier : Après la virtualisation industrielle des serveurs : comment orchestrer la complexité ?

- Février : Quelles applications mobiles en entreprise et sur quels smartphones ?

- Mars : Le cloud à la recherche de standards ?

- Avril : Virtualisation, après les serveurs, les postes de travail pour simplifier la gestion de parc ?

- Mai : Comment réussir l'adoption du travail collaboratif dans entreprise ?

- Juin : Le datacenter à l'heure du green

N'hésitez pas à utiliser l'adresse de la rédaction (redac_weblmi@it-news-info.fr) ou notre espace commentaires pour nous faire part de vos attentes et de vos avis.

Encore une fois, meilleurs voeux pour 2011.


(...)

(31/12/2010 13:37:54)

Microsoft met en garde contre des attaques visant Word

Des hackers exploitent une faille du traitement de texte Word pour implanter un malware sur les PC sous Windows, a mis en garde Microsoft. Le problème concernant les versions 2002, 2003, 2007 et 2010 du logiciel a été corrigé par la mise à jour de sécurité mensuelle du 9 novembre 2010. Les versions pour Mac, Word 2008 et 2011 ont également été amendées. L'éditeur n'a pas encore fourni de rustine aux utilisateurs de l'ancien Word 2004 pour Mac, mais les attaques du moment affectent seulement les versions Windows de la suite.

Si l'on se réfère aux informations communiquées par le centre de protection contre les malwares de Microsoft (MMPC, Malware protection center), chargé de suivre ces problèmes et de livrer les mises à jour de signatures pour le logiciel antivirus de l'éditeur, la première attaque du genre a été détectée la semaine dernière.

Lorsque Microsoft a mis à disposition le patch pour Word le mois dernier, celui-ci était assorti de l'indice 1, ce qui signifie qu'une attaque pouvait survenir dans les trente jours. Celle-ci utilise un fichier malveillant de type RTF (rich text format) pour générer un débordement dans Word sous Windows, explique Rodel Rinones, chercheur au MMPC. A la suite d'une tentative réussie, le code de l'attaque télécharge et exécute un cheval de Troie sur l'ordinateur. Et c'est bien la faille identifiée qui est ainsi exploitée.

Un correctif à appliquer aussitôt que possible

Le mois dernier, Microsoft a qualifié de « critique » cette vunérabilité dans Word 2007 et 2010. Il s'est contenté de la déclarer « importante » dans toutes les autres versions affectées du traitement de texte. A l'époque, les chercheurs extérieurs pariaient que les hackers seraient intéressés par le bug parce que les utilisateurs d'Office 2007 ou 2010 pouvaient être attaqués s'ils se contentaient de prévisualiser un document RTF spécialement préparé dans leur client de messagerie Outlook. « Dès qu'un message altéré atteint la fenêtre de prévisualisation d'Outlook, le code distant peut être exécuté, a ainsi averti Jason Miller, responsable de l'équipe sécurité de Shavlik Technologies, le jour où Microsoft a livré le patch. Il faut corriger cela tout de suite ».

Rodel Finones, du MMPC, conseille vivement aux utilisateurs qui n'ont pas encore installé le correctif de novembre de l'appliquer aussi vite que possible. Des informations supplémentaires peuvent être consultées sur le bulletin de sécurité pc émis par Microsoft. La mise à jour correspondante peut être téléchargée et installée en passant par Microsoft Update et Windows Server Update (WSUS).

(...)

(31/12/2010 10:47:26)

Bilan stockage 2010 : Rachats en série et convergence annoncée

Après deux années de crise, le business du stockage s'en sort plutôt bien selon les études des principaux cabinets d'analyse (Context, IDC, Gartner ou encore Forrester). Le signe clair que les entreprises, durement affectées par les effets de la récession mondiale, s'adaptent très vite dès que des besoins en stockage se font sentir. EMC reste toujours le leader sur le marché des solutions de stockage externe dans son ensemble. IBM et NetApp pointent à égalité au deuxième rang. La troisième place est occupée par Hewlett-Packard et Dell.

En 2010,  le marché du stockage a été marqué par de nombreuses acquisitions : Storwise par IBM, 3Par par HP, Isilon Systems par EMC, Compellent par Dell, Bycast par Nettapp... L'accélération a été très nette cette année. Avec la baisse régulière des crédits R&D, les big compagnies vont régulièrement faire leurs courses sur le marché des start-up pour acquérir les technologies qui leur font défaut.

Les dernières innovations en matière de stockage touchent l'optimisation de la capacité, tout ce qui tourne autour de la déduplication de données (ne jamais stocker 2 fois le même exemplaire de l'information). L'apparition du cloud storage qui chamboule la hiérarchie du stockage où on voit apparaître les niveaux SSD - SATA - cloud voire même SSD - cloud dans des cas plus extrêmes, permet une mise en place plus évidente de l'ILM (Information Lifecycle Management). Enfin, la connectivité bien sûr, puisqu'Ethernet est le futur des réseaux de stockage. En effet avec la déduplication et le stockage dans le cloud, la troisième principale tendance est aujourd'hui la convergence des infrastructures de l'entreprise. Les réseaux de stockage SAN (Storage Area Network) se préparent lentement à fusionner avec les infrastructures LAN (Local Area Network) même si aujourd'hui, peu d'entreprises dans l'Hexagone ont franchi le pas. Il reste un long travail d'explications technologiques et méthodologiques à faire, mais aussi, à impliquer les équipes liées au SAN avec celles du LAN qui disposent de compétences bien distinctes. Là est sûrement la plus grande difficulté. Cela dit, tous les acteurs de l'industrie s'accordent à dire que la convergence se fera, c'est une question de temps, dans 2, 3 peut-être 4 ans. La présence de deux types de réseaux est coûteuse à gérer et le sera d'autant plus que le volume de données devrait être multiplié par 44 d'ici à 2020 selon IDC (pour atteindre les 35 zettaoctets), soit une croissance moyenne annuelle de plus de 45%.

Quatrième tendance, la migration vers de plus petits disques durs et l'utilisation croissante de SSD font partie des technologies clés qui permettront de concevoir des datacenters « basse consommation » où les coûts en refroidissement seront revus à la baisse, explique dans une note IDC. Selon le cabinet d'études, le recours à des technologies de stockage plus efficaces devrait permettre de stabiliser, voire même de réduire, la puissance et les dépenses en refroidissement des centres de calcul d'ici à 2014.

Illustration : HP StorageWork

Les articles publiés en 2010 sur le sujet :

- LE 15 MARS 2010 : Le marché du stockage en réseau résiste à la crise

- Le 26 mars 2010 : Dell étoffe son offre stockage avec une solution objets, le DX6000

- Le 31 mars 2010 : Le marché du stockage optique poursuit sa transformation

- Le 8 avril 2010 : NetApp rachète Bycast pour renforcer son stockage "objets"

- Le 12 avril 2010 : Les tablettes, moteur de croissance du stockage dans le cloud

- Le 28 avril 2010 : Compellent affine son offre de stockage unifié

- Le 3 juin 2010 : Au coeur de la Silicon Valley : Rencontres avec Fusion-IO, Nexenta ...

- Le 8 juin 2010 : Le marché du stockage rebondit selon IDC

- Le 2 juillet 2010 : EMC ferme son service de stockage Atmos Online

- Le 31 aout 2010 : IBM finalise l'acquisition de Storwise, spécialisé dans le stockage

- Le 2 septembre : 3ParHP propose 33 dollars et Dell renonce (MAJ)

- Le 3 septembre 2010 : D'après IDC, le marché du stockage repart à la hausse

- Le 8 septembre 2010 : Après l'échec 3Par, Dell ciblerait Brocade ou Compellent

- Le 20 septembre 2010 : IBM rachète Netezza pour 1,7 milliard de dollars

- Le 21 septembre 2010 : OpenWorld 2010 : Mark Hurd dévoile un Exadata plus puissant

- Le 21 septembre 2010 : La start-up Cirtas Systems mixe stockage local et cloud

- Le 27 septembre 2010 : HDS repense sa solution de stockage virtualisé avec VSP

- Le 27 septembre 2010 : HP cherche à baisser le coût du stockage haut de gamme

- Le 6 octobre 2010 : Hitachi-LG dévoile une cartouche de stockage Blu-Ray de 1 To ...

- Le 7 octobre 2010 : HP intègre 3Par à vitesse grand V

- Le 14 ocobre2010 : 3 classes de stockage dans les outils Symantec Veritas

- Le 27 octobre 2010 : Selon IDC, les technologies de stockage doivent améliorer leur bilan énergétique

- Le 12 novembre : Riverbed s'attaque aux clouds privés et publics

- Le 15 novembre 2010 : EMC acquiert Isilon

- Le 16 novembre 2010 : Au coeur de la Silicon Valley : Sécurité et stockage dans le cloud ...

- Le 17 novembre 2010 : Brocade unifie réseau et stockage pour les environnements virtualisés

- Le 18 novembre : Au coeur de la Silicon Valley : Petit détour à Seattle pour visiter Isilon Systems

- Le 7 décembre 2010 : VPlex, la vision fédérative du stockage d'EMC a un nom

- Le 9 décembre 2010 : Logiciels de stockage : le marché a progressé de 8,7% en Q3 selon IDC

- Le 13 décembre 2010 : Dell acquiert Compellent

(...)

(30/12/2010 17:17:10)

Bilan virtualisation 2010 : Après les serveurs les postes de travail

Après le stockage et les serveurs en 2010, la virtualisation est appelée à se renforcer sur les postes de travail en 2011. Hyperviseurs de type 1 ou 2, VDI... les éditeurs et les constructeurs développent des solutions pour toutes les plates-formes : PC de bureau, portables, smartphones ou tablettes tactiles. Si les technologies de virtualisation des postes de travail sont aujourd'hui bien maitrisées, les utilisateurs se plaignent toujours de certains désagréments qui sont principalement liés aux capacités réseau, énormément sollicitées dans le cadre d'une infrastructure de bureau virtualisés. Reste la question du coût qui est généralement  de 9 à 11% plus élevé que l'environnement PC classique selon une responsable de Microsoft, Gabriella Schuster. D'autres estiment au contraire que la VDI entrainerait une baisse des coûts de 20%, principalement en maintenance. Quoi qu'il en soit, avec la montée en puissance du cloud qui concentre son lot d'applications virtualisées, les départements informatiques sont naturellement amenés à reconsidérer la place des postes de travail dans l'entreprise. Mais ici encore les questions liées à la reprise en cas d'incidents et à  la sécurité des données interpellent les responsables informatiques. 

Nous vous proposerons le 6 janvier prochain un dossier complet sur la supervision des machines virtuelles qui se sont multipliées sur les serveurs avec la consolidation.

Les articles publiés en 2010 sur le sujet :

Le 25 janvier 2010 : Selon une étude Computacenter, la virtualisation reste difficile à amortir rapidement

Le 28 mars 2010 : Pour la NSA, la virtualisation crée de nouvelles menaces

Le 8 avril 2010 : La virtualisation des postes de travail dans les starting-block

Le 4 mai 2010 : Bureaux virtuels, abondance et différences laissent perplexes

Le 11 mai 2010 : Microsoft minimise les avantages du VDI

Le 18 mai 2010 : Michael Dell, apôtre du VDI et du multi-équipement

Le 23 juillet 2010 : La virtualisation plus concrète et plus attractive que le cloud

Le 2 aout 2010 : VDI, Citrix reprend l'avantage sur VMware estime le Burton Group

Le 27 aout 2010 : Avant VMworld, Microsoft vante Hyper-V avec son client CH2M

Le 6 septembre 2010 : Les clients de VMware restent méfiants vis à vis de Hyper-V

Le 8 septembre 2010 : VMware travaille sur un VDI pour iPad

Le 30 septembre 2010 : La virtualisation s'invite sur les tablettes et les smartphones

Le 30 septembre 2010 : Fedora 14 teste la virtualisation de bureau

Le 12 octobre 2010 : VMworld 2010 : La virtualisation en route pour les clouds

Le 27 octobre 2010 : Avec le SP1, Microsoft dope la virtualisation sur Windows Server

Le 10 novembre : Microsoft pousse Hyper-V pour combler son retard dans le cloud

Le 8 décembre 2010 : VMware et LG dévoilent un smartphone virtualisé sous Android

Le 17 décembre 2010 : Plus de RAM pour améliorer la virtualisation sur serveurs






(...)

(30/12/2010 17:30:26)

Bilan Processeurs 2010 : Puces multicoeurs pour serveurs et portables

(Mise à jour) C'est en mars qu'Intel lance ses processeurs Xeon 5600 Westmere gravés en 32 nm, un an après les Xeon 550 Gainestown (45 nm). Ces puces destinées au marché des serveurs (lames et rack) réunissent quatre ou six coeurs par socket, et promettent de meilleures performances pour une consommation d'énergie réduite. Très vite,  Dell, Fujitsu, HP et IBM les intègrent dans leurs machines. Quelques semaines plus tard, Intel livre les Xeon Nehalem-EX. Ce sont les processeurs pour serveurs les plus rapides du moment. « Jamais le gap d'amélioration n'avait été aussi fort entre deux générations, affirmait alors Pascal Lassaigne, directeur du marché entreprises chez Intel France. Entre le Xeon 7400, classe Dunnington, et le 7500, sur base Nehalem-EX, les performances sont multipliées par trois en moyenne. » Cent serveurs monocoeurs pourraient être remplacés par 5 machines animées par des Xeon 7500 huit coeurs. « Et dans le cas où ces solutions monocores seraient remplacées par 100 unités Nehalem-EX, les performances seraient multipliées par 20. »

La réponse d'AMD ne se fait attendre. Le concurrent d'Intel, installé à quelques kilomètres de là dans la Silicon Valley, compte se battre sur le front des prix face au Xeon 5600 Westmere 32 nm. Il prévoit de proposer sa plateforme Maranello, qui peut recevoir quatre sockets Opteron « Magny-Cours » (8 à 12 coeurs), dans la même fourchette de prix que les deux sockets d'Intel. Présentée sous le manteau depuis plusieurs semaines, sa plateforme Opteron 6000 est officiellement dévoilée le 29 mars. Le gain de performance attendu est environ le double des précédentes puces six coeurs. AMD reprend une astuce, déjà utilisée par Intel, qui consiste à assembler des coeurs par couple pour fournir une puce Opteron 6100. Cette dernière, toujours gravée en 45 nm (contre 32 nm pour les Westmere et 45 nm également pour les Nehalem-EX), possède 1,8 milliard de transistors quand le Westmere en revendique 1,2 milliard et le Nehalem-EX 2,3. AMD espère aussi convaincre les entreprises de remplacer leurs serveurs bi-sockets par sa solution en leur faisant valoir la réduction des coûts sur les logiciels (la tarification des licences se fait généralement par processeur, sans tenir compte du nombre de coeur par puce).

Systèmes Unix : Itanium Tukwila, Power7 et Sparc T3

En février, Intel a également lancé, après de nombreux retards, son processeur Itanium connu sous le nom de code Tukwila. Cette puce 64 bits gravée en 65 nm a été conçue pour fonctionner sur des serveurs à faible tolérance de pannes. « Tukwila fait plus que doubler les performances de l'Itanium précédent », souligne alors Intel. Ce processeur à quatre coeurs est en concurrence directe avec les Sparc d'Oracle/Sun et les Power7 d'IBM. Justement, Big Blue annonce le sien quelques jours plus tard. Gravé en 45 nm, cadencé de 3 à 4,14 GHz, le Power7 sera livré avec 4, 6 ou 8 coeurs, chacun d'eux étant en mesure d'exécuter quatre threads. Une puce Power7 huit coeurs peut donc mener 32 tâches simultanément, soit quatre fois plus que les Power6. Comme chez Intel, la puce d'IBM possède une technologie baptisée TurbcoCore qui permet d'augmenter temporairement la fréquence des coeurs actifs (quatre sur huit). Ces pouces doivent fournir deux fois plus de performances que les Power6 en consommant quatre fois moins d'énergie, indique IBM.

En septembre, c'est au tour d'Oracle d'annoncer des serveurs animés par le processeur Sparc T3, une puce qui a commencé sa vie chez Sun Microsystems et que certains pensaient bien ne plus revoir depuis le rachat de la compagnie de Santa Clara. Connu sous le nom de code Rainbow Falls, ce Sparc T3 intègre jusqu'à 16 coeurs, soit deux fois plus que la précédente puce haut de gamme de Sun, l'UltraSparc T2 Plus, qui a été dévoilée il ya deux ans. Pour l'occasion, Oracle a procédé à un petit changement dans  l'appellation de la marque en raccourcissant UltraSparc en simplement Sparc. Ces processeurs sont destinés aux serveurs de la série T d'Oracle sous Solaris.

L'option Atom ou ARM pour les serveurs


En marge des serveurs à base de Westmere, de Nehalem ou d'Opteron, d'autres options apparaissent sur le marché. Ainsi, le Californien SeaMicro annonce-t-il en juin qu'il a développé le SM 1000, un serveur composé de 512 Atom, processeurs à faible puissance d'Intel, montés sur de petites cartes mères. Des puces que l'on trouve habituellement dans les netbooks bon marché. Andrew Feldman, PDG de SeaMicro et personnage controversé dans la Silicon Valley, justifie son choix en expliquant que les Atom peuvent être plus efficaces sur le plan énergétique que des processeurs x86 traditionnels. En particulier pour le cloud et pour certains types d'opérations sur Internet, où les charges de travail sont souvent plus petites en taille, mais plus importantes en volumes. Mais Intel, de son côté, ne souhaite pas positionner les processeurs Atom sur le marché des serveurs, considérant notamment que ce type d'offres ne peut se limiter qu'à des marchés de niche.

[[page]]

En revanche, c'est un terrain sur lequel ARM pourrait s'aventurer. En septembre, le spécialiste des puces à basse consommation lève le voile sur sa prochaine génération de processeurs. Le fabricant promet des performances cinq fois supérieures qui lui permettraient de se positionner au-delà des smartphones et tablettes tactiles, sur des routeurs coeurs de réseaux et sur des serveurs, justement. ARM pré-annonce ainsi sa plate-forme Cortex-A15 MPCore, qui illustre le saut de génération avec ses modèles Cortex-A8 et Cortex-A9. Or, l'architecture du A9 vient à peine d'être licenciée auprès des constructeurs et le A15, lui, ne sera disponible que fin 2012.

Chez AMD, une puce hybride pour PC portable

Du côté des processeurs pour postes de travail, le nombre de coeurs disponibles continue à progresser. En janvier 2010, sur le salon CES de Las Vegas, Intel annonce la commercialisation des Core i7, i5 et i3. Ils sont gravés en 32 nanomètres, ce qui permet notamment d'intégrer le circuit graphique 2D/3D à l'intérieur du proceseur. La famille Arrandale se destine aux PC portables tandis que la gamme Clarkdale vise les postes fixes. Quelques mois plus tard, les Core i3, i5 et i7 sont intégrés par Apple à ses ordinateurs iMac et MacPro.

En juillet, on apprend que les premières puces Fusion d'AMD devraient très prochainement apparaître sur les netbooks et les notebooks d'entrée de gamme, mais que rien n'est encore prévu pour les tablettes. Quelques semaines auparavant, le fondeur avait dévoilé les premières puces se basant sur l'architecture de type Fusion. Celle-ci combine des coeurs CPU et GPU au sein de la même entité. La puce Fusion Ontario, par exemple, possède deux coeurs x86 et un circuit graphique DirectX 11. Ce dispositif devrait rendre AMD plus compétitif dans les marchés de netbooks, entre autres, dominés à l'heure actuelle par Intel. 

Dans la famille Fuxion, AMD fournit aussi un aperçu de Llano, son prochain processeur hybride pour ordinateurs de bureau et PC portables, qui combine CPU et GPU DirectX 11 sur une seule puce. Il l'a dévoilée lors d'un forum technique d'AMD et d'un salon à Taipei.  Elle devrait servir à construire des PC plus légers et plus économes en énergie. Le circuit graphique devrait être capable de décoder des disques Blu-ray, et le processeur d'exécuter simultanément plusieurs grosses applications en tâche de fond. Mais le CPU et le GPU seront aussi capables de travailler ensemble pour accélérer certains logiciels non graphiques et très gourmands en données, affirme le fabricant. Cette puce devrait disposer de quatre coeurs fonctionnant à des vitesses supérieures à 3.0 GHz. Elle est attendue en 2011, mais AMD n'a pas encore fourni de date précise quant à son intégration dans des PC.

Premiers portables Sandy Bridge en janvier

Quant à Sandy Bridge, la prochaine génération de processeurs Intel pour PC et portables, elle a été présentée fin août quelques jours avant la conférence développeurs IDF du constructeur. Ces puces comportent une douzaine de fonctionnalités pour améliorer les performances graphiques et, notamment, le décodage matériel des films Blu-ray 3D. Les portables qui exploiteront cette architecture seront capables de lire des films en 3D en préservant l'autonomie de la batterie, annonce Intel. Les puces Core ix 2000 Sandy Bridge doivent arriver chez les constructeurs pour la fin de l'année. De fait, en décembre, un peu avant le lancement officiel des puces (au CES 2011 de Las Vegas), HP et Lenovo pré-annoncent les premiers PC portables qui les intègrent. Parmi eux figure un HP Pavilion à écran 17,3 pouces doté du Core i7 2630QM équipé de quatre coeurs à 2 GHz et de 6 Go de RAM DDR3. Le tout pour 1 150 dollars environ. Chez Lenovo, les modèles, plus petits, démarrent à 850 dollars avec des Core i7.

Illustration : A sa sortie, le Nehalem-EX d'Intel représente le processeur le plus puissant jamais livré jusqu'alors (crédit photo : D.R.).

Les articles publiés en 2010 sur le sujet :

- Le 11 janvier 2010 : CES 2010 - Les processeurs 32 nm d'Intel enfin disponibles

- Le 3 février 2010 : Tukwila, la dernière puce Itanium d'Intel, arrive enfin

- Le 9 février 2010 : Avec le Power7, IBM relance la bataille des puces pour systèmes Unix

- Le 12 février 2010 : Jasper Forest, un processeur Intel Xeon Nehalem spécial stockage

- Le 17 mars 2010 : Dell, Fujitsy, HP, IBM et SGI annoncent leurs serveurs sur base Intel Xeon 5600

- Le 19 mars 2010 : Plateforme serveur quatre sockets au prix de deux chez AMD

- Le 23 mars 2010 : Opteron 6100, un gros 12 coeurs AMD pour contrer les 6 coeurs d'Intel

- Le 31 mars 2010 : Intel Nehalem-EX, cap sur les performances et la haute disponibilité

- Le 7 avril 2010 : Cisco adopte les Xeon 7500 d'Intel

- Le 14 avril 2010 : IDF Pékin - Android sur Atom et processeurs Sandy Bridge en vue

- Le 7 mai 2010 : Jusqu'à 12 coeurs pour le prochain Westmere-EX d'Intel

- Le 15 juin 2010 : SM1000, un serveur animé par 512 puces Atom

- Le 23 juin 2010 : AMD Opteron 4000, une vraie puce serveur à partir de 99 dollars

- Le 16 juillet 2010 : AMD en avance sur le développement de Fusion

- Le 27 juillet 2010 : Processeurs pour les iMac et MacPro

- Le 5 août 2010 : Accusé de pratiques anticoncurrentielles, Intel accepte la proposition de la FTC

- Le 18 août 2010 : Des processeurs double coeur pour les smartphones

- Le 19 août 2010 : Intel s'approprie des parts de marché AMD sur les serveurs

- Le 23 août 2010 : Intel lance enfin son Atom bi-coeur pour netbook

- Le 31 août 2010 : AMD envisage des serveurs équipés de puces de faible puissance

- Le 10 septembre 2010 : Des puces ARM pour serveurs avec 4 coeurs à 2,5 GHz

- Le 14 septembre 2010 : IDF 2010 - Sandy Bridge adopte le Turbo Boost pour le CPU et le GPU

- Le 21 septembre 2010 : Oracle défie les sceptiques avec ses serveurs à base de Sparc T3

- Le 6 décembre 2010 : DOSSIER - Les dix tendances IT pour 2011

- Le 29 décembre 2010 : HP et Lenovo dévoilent leurs 1er PC portables Sandy Bridge

(...)

(30/12/2010 14:57:31)

Geinimi : un Trojan inquiétant ciblant Android

Baptisé « Geinimi », ce malware semble être le premier à disposer de fonctionnalités de type botnet ciblant la plate-forme Android, a déclaré Kevin Mahaffey, directeur technique chez Lookout Mobile Security, un éditeur qui développe des logiciels de sécurité mobile. Geinimi semble particulièrement cibler les utilisateurs Android de langue chinoise, et l'éditeur Lookout a été informé de cette petite nouveauté suite au message envoyé par un utilisateur sur un forum ; précise Kevin Mahaffey. Loin de nous l'idée de paniquer les possesseurs de smartphones Android, ni de devenir le porte-parole patenté des éditeurs d'antivirus, mais la rédaction du Monde Informatique fait simplement son travail de veille technologique et l'arrivée de ce type de Trojan, généralement dissimulé dans certains jeux gratuits, n'est pas vraiment une surprise.

Ainsi les chercheurs de Lookout, qui ont publié une note sur Geinimi, ont constaté que le malware était dissimulé dans des jeux gratuits et payants pour Android, peut-être même à l'insu des développeurs. « Nous avons été en contact avec les développeurs pour les informer du problème», a déclaré Kevin Mahaffey. Ces jeux altérés apparaissant généralement sur les sites web de tiers proposant des applications Android qui n'ont pas été contrôlées comme c'est le cas pour l'Android Market de Google. Certains de ces programmes ont déjà été téléchargés des milliers de fois.

Des objectifs encore mystérieux

L'éditeur d'antivirus analyse toujours les caractéristiques de Geinimi, et le but final des créateurs du malware n'est pas très clair. Mais plusieurs aspects de ce logiciel malveillant suffisent déjà à susciter des inquiétudes. Le malware en question communique avec un serveur central de commandement et de contrôle. Ce dernier peut envoyer à distance des commandes à un smartphone Android, comme télécharger ou désinstaller un logiciel. L'utilisateur du terminal mobile est toutefois invité à approuver cette action, mais cette petite sécurité suscite encore des préoccupations, explique Kevin Mahaffey. « Il pourrait s'agir d'un vecteur susceptible d'installer d'autres logiciels potentiellement malveillants ».

Toutes les 5 minutes, Geinimi envoie également des informations sur la géolocalisation de l'appareil Android et d'autres éléments identificateurs, tels que le numéro IMEI ( International Mobile Equipment Identity) et les références de la carte SIM. Il peut également envoyer la liste de toutes les applications installées sur le terminal. Pour envoyer ces données, le malware peut contacter jusqu'à 10 noms de domaine pour brouiller les pistes et se connecter au serveur distant. Si Geinimi a la capacité de contacter plusieurs domaines différents pour récupérer des instructions sur un serveur de commandement et de contrôle, le spécialiste en sécurité de Lookout estime qu'il a bien les capacités d'un botnet. Pourtant, Geinimi n'a pas encore clairement révélé ses objectifs qui pourraient être autres que le simple vol de données. L'éditeur poursuit son travail d'analyse. Il pourrait par exemple s'agir d'une campagne de publicité de type spam très intrusive reposant sur une technologie botnet.

(...)

(30/12/2010 14:07:24)

Les dix prédictions d'IDC pour 2011 sur fond d'expansion numérique

Comme à chaque fin d'année, IDC consulte l'ensemble de ses équipes d'analystes réparties dans le monde pour déterminer les 10 tendances majeures pour 2011. Le cabinet d'études se livre au jeu des prédictions pour les mois suivants et se penche sur les technologies dont l'adoption va se confirmer ou s'ébaucher. Au cours des prochaines semaines, il va détailler chacune d'elles en déclinant des scénarios appliqués à différents segments de marché.

1 - En premier lieu, la croissance des dépenses IT mondiales pourrait approcher les 5,7%. Modérée sur les logiciels et services, elle bénéficiera d'un rebond sur les services.

2 - Cette croissance devra beaucoup aux marchés émergents, Chine en tête, qui y contribueront pour plus de la moitié. Dans ces régions, le taux de progression sera 2,6 fois plus élevé que les marchés développés.

3 - L'adoption du cloud va passer à la vitesse supérieure en intensifiant l'alternative privé/public. Dans le même temps, l'expression « cloud computing » va passer de mode.

4 - Les datacenters vont continuer leur transformation, tirée vers le cloud : intégration de ses différentes composantes (stacks), logiciels d'entreprise prêts pour le cloud, et une attention particulière portée aux fournisseurs de services qui deviennent des clients stratégiques.

5 - Comme chacun s'y attend, l'explosion de la mobilité va se poursuivre : énormes volumes de terminaux, nouveaux formats et « millions » d'applications mobiles (oui, des millions, insiste IDC).

Un univers numérique en expansion : 10^12 gigaoctets

6 - Les réseaux haut-débit vont devoir lutter et innover pour tenir la route face aux réseaux sans fil 4G/LTE qui commencent à se propager. Toutefois, les échanges Ethernet (utilisés en particulier pour les systèmes de stockage) vont modérer la rétraction subie par le haut-débit filaire. Les réseaux de diffusion de contenus (CDN) vont de leur côté prendre du poids.

7 - IDC voit par ailleurs 2011 comme une année de consolidation et de convergence pour les acteurs des logiciels liés aux réseaux sociaux. Pour le cabinet d'études, l'année qui vient verra une forte augmentation du réseautage social dans les PME.

8 - L'univers numérique en expansion (il atteindra 1 800 milliards de gigaoctets -10 puissance 12 Go) va accentuer la demande pour récupérer facilement les informations en ligne et pour l'analyse en temps réel de ces 'Big Data', gigantesques volumes de données.

9 - Les industries que le monde anglo-saxon qualifie d'intelligentes (parce qu'elles introduisent les traitements informatiques au coeur des véhicules ou des bâtiments) vont mettre la mobilité et les réseaux sociaux à l'oeuvre pour profiter de la ruée vers les achats mobiles de loisirs. IDC pense que ce secteur va se mettre en ordre de marche pour faire face à l'augmentation des paiements mobiles et se préparer à la prochaine génération de services de santé.

10 - Les industries de l'IT, des télécommunications et des médias vont prendre position pour répondre à la demande du grand public pour les TV web. IDC s'attend à une bataille entre fournisseurs spécialisés sur les médias et les loisirs pour s'imposer comme l'opérateur virtuel de référence. Enfin, le cabinet d'études prévoit une très forte augmentation de la publicité sur mobile.

Illustration : Le datacenter de HP à Houston (Texas). Crédit photo : D.R.

(...)

(30/12/2010 09:44:36)

7 mille milliards de SMS en 2011

Au moins 7 mille milliards de SMS devraient être envoyés au cours de l'année 2011. Selon les estimations publiées par l'analyste ABIresearch, ce mercredi 29 décembre, ces messages seront envoyés depuis les quelque 4,2 milliards d'abonnements mobiles souscrits dans le monde. (...)

< Les 10 documents précédentsLes 10 documents suivants >