Flux RSS

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

108538 documents trouvés, affichage des résultats 2411 à 2420.

< Les 10 documents précédentsLes 10 documents suivants >


(23/09/2011 17:29:27)

RecapIT : Leo Apotheker prend la porte, L'iPhone 5 se précise, Google+ et Facebook se transforment

HP est la grande star de la semaine ou plus exactement ses dirigeants. En effet, après des rumeurs évoquant la volonté du conseil d'administration de changer de PDG, le constructeur a réagi rapidement en annonçant l'éviction de Leo Apotheker et la prise de fonction de Meg Whitman, ancien PDG d'Ebay. Leo Apotheker aura tenu moins d'un an à la tête de HP et a certainement payé le mauvais accueil de sa stratégie dévoilée au mois d'août dernier. Le directeur exécutif, Raymond Lane, a justifié les raisons du départ de Leo Apotheker.

L'iPhone 5 et/ou 4Gs dévoilés début octobre

A quelques jours du mois d'octobre, Apple est sorti du bois pour inviter la presse le 4 octobre prochain pour présenter l'iPhone 5. Deux questions restent en suspens. La première est de savoir si la firme de Cupertino présentera un ou deux iPhone, le 5 et/ou le 4Gs. La deuxième porte sur les intentions de Samsung de bloquer la vente de l'iPhone 5. Une représaille face aux différents procés intentés par Apple contre les tablettes du fabricant Coréen en Europe notamment.

Cette semaine aussi, l'ARCEP a publié les résultats d'une partie des licences 4G. Free mobile, Orange, SFR et Bouygues Telecom vont donc obtenir des blocs de fréquences.  

Google + s'ouvre et Facebook se développe

En matière de réseaux sociaux, Google a annoncé la fin du système d'invitation à Google +, ainsi que des évolutions pour améliorer son service.  De son côté, Facebook a profité de sa conférence développeurs pour dévoiler la fonction Timeline, ainsi que l'intégration plus importante des contenus multimédias.


(...)

(23/09/2011 17:19:35)

Ray Lane, nouveau président exécutif de HP, justifie l'éviction d'Apotheker

Après son départ de SAP, Leo Apotheker avait été remplacé par deux personnes ( Jim Hagemann Snabe et Bill McDermott, et après son éviction de Hewlett-Packard, il est plus ou moins remplacé par deux personnes : Meg Whitman, qui reprend ses fonctions de CEO et de président, et Raymond Lane qui devient président exécutif (executive chairman).  Ce dernier était président non exécutif jusqu'à présent. Ce n'est pas un inconnu. Ancien directeur général d'Oracle, il était un membre actif du conseil d'administration de HP depuis sa nomination en octobre 2010. À cette époque, il avait fait partie des candidats potentiels au poste de CEO de HP, finalement attribué à Leo Apotheker.  À la différence de ce dernier, Meg Whitman aura donc les coudées beaucoup moins franches.

Lors d'une conférence téléphonique à laquelle ont pu assister nos confrères d'IDG News Service, Ray Lane est revenu sur l'éviction précipitée de Léo Apotheker, qui a occupé le poste de CEO pendant moins d'un an. Cette décision a été prise lors d'«un conseil d'administration très très réfléchi, et décidé après avoir envisagé toutes les solutions. Avant l'embauche de Leo Apotheker en remplacement de l'ancien CEO Mark Hurd, HP avait connu de bons résultats, mais avec une réserve, a déclaré Ray Lane. «Pendant des années, l'entreprise avait réduit les coûts au détriment de l'innovation. Leo avait été chargé d'élaborer la vision d'HP. Nous devons le créditer au vu des importantes avancées réalisées sur ce point. »

Un nouveau leadership était devenu nécessaire

« Dans le même temps, le conseil a commencé à observer des faiblesses dans certaines parties de l'entreprise » qui prenaient du retard, et il est devenu clair qu'un nouveau leadership était devenu nécessaire chez HP, a poursuivi Ray Lane. «Trois ou quatre domaines nous préoccupaient » au regard des performances réalisées par Leo Apotheker. "Premier point, et il est d'importance, une grande entreprise nécessite une équipe de direction sur la même ligne. Nous n'avons pas réussi à voir une équipe de direction travaillant sur la même ligne ou réussissant à travailler ensemble. (...) Le principal obstacle était au niveau de l'exécution des opérations : la capacité de descendre profondément dans l'entreprise pour en comprendre la dynamique », a-t-il ajouté.

Le troisième problème était au niveau de la communication. Les membres du conseil ont été «embarrassés» par la façon dont l'équipe d'Apotheker a géré les annonces du mois d'aout au sujet de la scission de l'activité PC, de l'accord de rachat d'Autonomy pour un montant de 10,3 milliards de dollars et de la décision d'arrêter la fabrication des terminaux webOS, a déclaré le président exécutif. Selon le dirigeant, Meg Whitman a toutes les compétences nécessaires pour remettre HP sur les rails dans ces trois domaines. « Je sais que HP a déçu les investisseurs ces derniers trimestres et nous ne sommes pas satisfaits à ce sujet », a déclaré Meg Whitman lors de cette même conférence téléphonique. La société prendra les mesures nécessaires pour rétablir sa performance financière, a-t-elle ajouté. « Ce n'est pas quelque chose qui peut arriver du jour au lendemain ... mais je sais que nous avons les outils et les personnes pour atteindre nos objectifs. »

Un conseil d'administration chahuté

L'«expulsion soudaine» de Leo Apotheker pourrait cependant entrainer d'autres retombées sur le conseil d'administration de HP, qui a dû faire face aux critiques acerbes de certains milieux au cours de la dernière année. Toni Sacconaghi Jr, analyste chez Bernstein Research Analyst avait écrit une note avant l'annonce du licenciement de Léo Apotheker. « L'éventuelle éviction d'Apotheker du poste de CEO - et le fait que les discussions du conseil aient fuité dans la presse - soulignent la fragilité de ce conseil et entame sa crédibilité », indique la note. « Nos conversations avec les principaux actionnaires indiquent également qu'ils sont mécontents de ce conseil, étant donné qu'il a approuvé toute une série de décisions (l'éviction de Hurd; le recrutement Leo; l'approbation de l'acquisition d'Autonomy, l'annonce prématurée de la sortie de l'activité PC ). Beaucoup d'actionnaires estiment que de mauvaises décisions en contradiction avec leurs intérêts ont été prises ».

[[page]]

HP devrait également améliorer sa recherche de cadres dirigeants, fait également valoir Toni Sacconaghi. HP a décidé de ne pas rechercher de CEO pour un certain nombre de raisons, a indiqué Ray Lane. «Nous savions que nous avions des options extérieures, suite aux recherches assez récentes effectuées l'année dernière. Nous avons de bons profils. » (...) «Nous avons examiné des candidats intérieurs potentiels qui n 'étaient pas encore prêts », et Ray Lane lui-même a « envisagé un rôle intérimaire » . Mais dès le début, Ray Lane a compris que Meg Whitman était la meilleure candidate, et la seule question était de savoir si elle allait accepter, a-t-il dit. « Si nous pensions qu'il y avait un meilleur choix à l'extérieur, nous aurions de nouveau considéré cette option ». 

Ray Lane a également répondu aux critiques du conseil d'administration de HP. « Ce n'est pas ce conseil qui a viré Mark Hurd, » a-t-il dit. En outre, «ce conseil n'a pas choisi Leo » (..). «Plus de la moitié des membres ont été nommés après l'arrivée de Leo Apotheker. Pour conclure, Ray Lane a répondu avec une certaine ironie au sujet de la spéculation passée insinuant que Leo Apotheker avait poussé des alliés au sein du conseil. « Je me souviens que j'avais été obligé de répondre à cette question. Alors est-ce toujours sa bande de copains ? Vous rappelez-vous de tous ces papiers ? »

Crédit photo : HP

(...)

(23/09/2011 16:10:23)

Le centre de calcul de l'IN2P3 du CNRS renforce ses capacités

Le CNRS doit inaugurer le 27 septembre prochain l'extension de son centre de calcul de l'Institut national de physique nucléaire et de physique des particules (IN2P3). D'une superficie de 900 m2, la salle supplémentaire permettra d'augmenter la puissance de calcul du centre, l'objectif étant d'atteindre 60 000 processeurs d'ici à 2015 et de porter sa capacité de stockage jusqu'à 120 pétaoctets. Les premières machines ont été installées en mai dernier.

Depuis plus de vingt ans, le centre de calcul de l'IN2P3 stocke et traite de très importants volumes de données, en particulier dans le domaine de la recherche scientifique sur la physique corpusculaire et les astroparticules. C'est l'un des centres utilisés pour les expériences liées au spectromètre magnétique Alpha installé sur la station spatiale internationale, ou encore pour celles du LHC (Large Hadron Collider) du CERN, l'organisation européenne pour la recherche nucléaire.

Consommation électrique réduite et chaleur réutilisée

En étendant ses capacités, l'IN2P3 va pouvoir héberger l'infrastructure pour exploiter des données de projets internationaux de physique, analysant des données en provenance de détecteurs, satellites ou télescope, ou de simulations numériques. Ou encore pour des projets liés aux sciences de la vie et des sciences humaines. L'ensemble des données, qui doit pouvoir transiter entre différents sites de recherche, sera stocké et traité pour être exploité par des chercheurs, situés en France ou à l'étranger.

Sous une maîtrise d'ouvrage CNRS, la construction de la salle a été financée par l'Etat, dans le cadre du CPER 2007-2013, ainsi que par la Région Rhône-Alpes. Les techniques utilisées pour sa construction ont été choisies pour minimiser sa consommation électrique. La chaleur produite par la salle informatique sera par ailleurs utilisée pour le chauffage de certains bâtiments de l'Université Claude Bernard Lyon 1 qui lui a cédé le terrain sur lequel elle est bâtie.

Illustration : nouvelle salle informatique du centre de calcul de l'IN2P3 (source : CCIN2P3/CNRS)

(...)

(23/09/2011 16:07:56)

IBM fédère ses centres de recherches en France au sein de France Labs

Alain Bénichou, PDG d'IBM France a en personne annoncé la création de France Labs. « Dans un contexte international, il était nécessaire de créer un laboratoire reconnu. La France est le 3ème lab IBM hors Etats-Unis » a évoqué le dirigeant. Cette structure va être chapeautée par Frédéric Allard, directeur du site de la Gaude et responsable technique Europe du sud.

Ce dernier a expliqué que France Labs comprendrait 700 experts techniques en développement produits et solutions. Ils seront issus des différents centres de recherches présents dans l'hexagone (Montpellier, La Gaude, etc.). Alain Bénichou a rappelé que « IBM est une société d'ingénieurs et nous avons beaucoup d'experts issus de nos  acquisitions ». Il a précisé que les travaux réalisés par France Labs s'articuleront autour des Global Technology Services (programme d'IBM pour lier recherches et besoin des entreprises).

De la recherche à la concrétisation des projets en entreprise

La structure commune de recherche comprendra donc plusieurs projets, avec des capacités de financement, Alain Bénichou a insisté sur ce dernier point au travers du crédit impôt recherche « nous sommes en position favorable par rapport aux Etats-Unis et le Canada sur le CIR (mécanisme fiscal de crédit d'impôt sur les dépenses de R&D des entreprises). Les projets sur lesquels nous travaillons se font sur une durée de 5 ans » et d'ajouter « je plaide auprès du gouvernement pour sanctuariser le CIR afin d'en assurer la pérennité ». Les liens avec les universités et les instances européennes ne sont pas oubliés à travers de co-financement de thèses et la présence d'experts au sein des cursus de l'enseignement supérieur. IBM a profité du lancement de France Labs pour démontrer au cours de plusieurs ateliers les avancées et l'implication concrète de la recherche.

Ainsi, le CERN (Centre d'étude et de recherche nucléaire) a élaboré un outil de surveillance de ses différentes infrastructures réseaux (énergie, eau, ...) à partir des recherches d'IBM et de son acquisition de 2008, Ilog. La solution s'appelle TIM (Technical Infra Monitoring) viewer et donne une vision globale des infrastructures, mais aussi beaucoup de renseignements sur des détails avec une grande granularité.

Illustration : Frédéric Allard, président de France Labs

Crédit Photo : D.R

(...)

(23/09/2011 15:12:54)

Diablo, mise à jour majeure pour l'architecture cloud OpenStack

La mise à jour de la plate-forme cloud Open Source OpenStack enrichit le logiciel d'une interface graphique revue et d'un système unifié de gestion des autorisations. Comme l'a déclaré Jonathan Bryce, président de la fondation OpenStack Project Policy Board, l'objectif de cette version était de « rendre OpenStack facile à utiliser et à administrer. » Les développeurs ont aussi continué à apporter des améliorations pour les infrastructures Cloud de grande taille. « Nous ne parlons pas ici d'utiliser OpenStack pour faire tourner un cloud de 100 ou même de 1000 serveurs, mais de dizaines de milliers de serveurs. Même si certaines options ne sont pas encore à cette échelle ». Au total, cette version nommée Diablo comprend plus de 70 fonctionnalités et améliorations.

Parmi les nouvelles fonctions, plusieurs sont adaptées aux infrastructures de très grande taille. Le logiciel présente un planning distribué pour le déploiement de machines virtuelles partout au niveau du système, même si les noeuds sont dispersés dans différents datacenters à travers le monde. Une fonction de synchronisation de conteneur multi-cluster peut être utilisée pour répliquer les données entre différents clusters distants. La gestion des images disques permet désormais aux utilisateurs de rechercher des instances de machines virtuelles spécifiques, une fonctionnalité qui peut s'avérer très pratique pour les fournisseurs de service qui ont un nombre important de clients à gérer.

Un projet développé à l'origine par la NASA

D'abord développé par la NASA dans le cadre de son projet Nebula Cloud Project, OpenStack est un ensemble de logiciels Open Source capable de faire tourner des installations cloud de grande envergure. Rackspace, l'hébergeur qui participe au programme, prévoit aussi de proposer des déploiements OpenStack dans ses propres services. OpenStack est constitué de trois composants : OpenStack Compute, OpenStack Object Storage et OpenStack Image Service. Selon la fondation, à ce jour, la pile logicielle a été téléchargée plus de 50 000 fois. La plateforme de trading latino américaine MercadoLibre, qui sert plus de 58 millions d'utilisateurs, utilise le logiciel. Walt Disney et le CERN (l'Organisation européenne pour la Recherche nucléaire), aussi.

L'interface utilisateur de Diablo, en grande partie développée par Nebula, un fournisseur de service OpenStack, permet aux administrateurs de gérer le provisionning des ressources via un portail. Dans les versions précédentes d'OpenStack, les administrateurs devaient contrôler le logiciel en utilisant des lignes de commande, ou à l'aide de leurs propres programmes par le biais d'une API OpenStack. « Le nouveau tableau de bord avec l'interface graphique est téléchargeable séparément, mais il peut être facilement branché à la pile logicielle, » a expliqué Jonathan Bryce. Essex, la prochaine version d'OpenStack, intègrera directement l'interface graphique dans son programme.

Intégration avec Active Directory

Le logiciel dispose également d'un système de gestion unifié des identités, appelé Keystone OpenStack, lequel peut relier les différents systèmes d'authentification précédemment déployés pour des composants autonomes. « Le système vient remplacer les choix d'authentification existant dans l'architecture OpenStack, » a déclaré le président de l'OpenStack Project Policy Board. « Il offre une signature unique pour tout. » Il peut également s'intégrer à des systèmes d'annuaires externes, comme Microsoft Active Directory ou d'autres systèmes d'authentification basés sur LDAP (Lightweight Directory Access Protocol). Comme OpenStack DashBoard, Keystone est disponible en téléchargement indépendant, et sera intégré dans la prochaine version du logiciel Open Source. Enfin, OpenStack Quantum, une fonctionnalité qui permet aux utilisateurs de configurer des réseaux virtuels au moyen d'une API, est également disponible en téléchargement séparé.

(...)

(23/09/2011 14:35:52)

Quantum dévoile des systèmes big data et améliore la dédup de ses DXi

A l'occasion du salon IBC 2011 à Amsterdam, le 13 septembre dernier, Quantum a présenté les produits de la gamme StorNext dédiée au partage et à l'archivage de fichiers volumineux. Comme nous l'a précisé Gabriel Chaher, vice-président EMEA chez Quantum, « pour faire du big data, il ne suffit pas de le dire comme chez certains concurrents. Il est nécessaire de concilier trois éléments : gros volume, gros fichiers et rapidité d'accès ».  Reposant sur le système de fichiers maison hérité du rachat d'Adic, SNFS (StorNext File System), la gamme StorNext se compose de plusieurs éléments : les contrôleurs de métadonnées (M330),  les passerelles scale-out NAS (G300 Scale-Out Gateway) et les systèmes de stockage (QM1200, QS1200 et QD6000). Après avoir longtemps fourni sa technologie à des partenaires comme NetApp ou HP, Quantum propose aujourd'hui des équipements reposant sur sa technologie.

Conçues pour les environnements SAN, les têtes StorNext M330 (à partir de 75 000$) améliorent les performances de traitement en séparant les métadonnées des données au niveau des entrée/sortie.  Véritable coeur du système StorNext, ils forment le socle de fonctionnalités dans un système FC.

Des solutions big data 100% Quantum

Destiné aux marchés exigeants, comme celui du broadcast qui s'organise sur trois niveaux (diffusion, stockage secondaire et archivage), les appliances G300 (attendues début 2012) et les baies de disques QM1200, QS1200 et QD6000 visent le marché du big data où il est nécessaire d'augmenter les ressources de stockage sans pour autant diminuer les performances. La passerelle G300 (1 ou 10 Gigabit) propose la répartition automatique de la charge entre plusieurs appliances pour assurer des performances optimales. Elle est vendue avec un nombre illimité de licences du LAN Client StorNext. Les systèmes de stockage primaire StorNext dédiés au G300 fonctionnent avec trois baies, disponibles au quatrième trimestre 2011. Le modèle QM1200 est destiné au stockage des métadonnées tandis que le QS1200 a été conçu pour les petits pools de données primaires avec ses disques SAS 15 000 t/m d'une capacité maximale de 600 Go. Enfin, le QD6000 peut atteindre une capacité maximale de 1 pétaoctet dans la même baie en empilant des disques SATA 3 To (180 To dans un rack 4U).

La réaffectation dynamique des données (multitiring intégrale) fait partie des fonctions de base de cette baie. Plusieurs niveaux d'encryption sont également proposés aux clients par Quantum. « On pousse même à l'import/export des clefs pour faciliter le transfert de données », nous a précisé Gabriel Chaher. Les attachements livrés avec les StorNext comprennent le FC et l'Ethernet avec le support des protocoles NFS/CIFS et SNFS (le protocole Quantum). L'ensemble de ces briques permet de bâtir des solutions concurrentes de celles d'Isilon Systems (les séries S et X), tombé dans le giron d'EMC, et d'IBM (grid XiV). Quantum tient toutefois à se différencier de ses concurrents en mettant en avant ses atouts comme l'intégration étroite de ses logiciels de gestion et d'archivage des données avec contrôle automatique de l'intégrité des bandes, a tenu à préciser Gabriel Chaher.

Dédup plus efficace pour la sauvegarde

La sauvegarde a également fait partie des annonces de l'été chez Quantum avec l'arrivé d'une version milieu de gamme de sa solution de back-up et de déduplication DXi qui vient concurrencer les produits de Data Domain. Quantum propose quatre familles de produits dans sa gamme DXi : le 4500, une entrée de gamme pour les PME/PMI, le milieu de gamme 6500, le modèle grand compte 7500 et un haut  de gamme le 8500.

Derniers nés de la gamme de sauvegarde sur disques, les DXi 6701 et 6702 mettent l'accent sur la vitesse de déduplication avec la version 2 du logiciel de Quantum et une mise à jour processeur. Le 6702 serait ainsi capable de travailler à un débit de 5,8 To à l'heure (1,61 Go/s) en mode VTL (Virtual Tape Library) et 5 To/h (1,389 Go/s) en mode OST (Open Storage Technology), l'API de backup de Symantec. Quantum affirme qu'il offre une capacité de traitement supérieur à celle de son principal concurrent, les appliances Robo de Data Domain. En moyenne, Gabriel Chaher avoue que la déduplication se situe entre 7 et 14% suivant le type de fichier dans la base installée en France.

Quantum indique également qu'il est possible d'étendre la déduplication au-delà des appliances. La série 6700 dispose en effet d'un mode de travail hybride, appelée Accent DXi, qui partage la déduplication entre le serveur de données et le 6700. La première étape consiste à dédupliquer les données sur le serveur pour s'assurer que les données envoyées au DXi sont uniques. C'est une technologie similaire au Boost de Data Domain avec les appliances Robo. Avec cette astuce, la circulation des données sur le réseau peut être diminuée et la déduplication accélérée le serveur et l'appliance de dédup.

Le prix du DXi6701 annoncé par le constructeur californien est de 58 000 $.

 

Illustration principale : Appliance DXi6700 de Quantum (...)

(23/09/2011 14:08:27)

Teradata prépare une appliance exploitant la base de données Aster

Teradata ajoute une option appliance à sa base analytique Aster pour renforcer ses atouts face à des solutions concurrentes telles que l'Exadata d'Oracle, Hana de SAP ou encore les offres Greenplum d'EMC. Le produit qu'il a annoncé hier à la conférence Strata, à New York, reposera sur la même infrastructure qui sous-tend l'ensemble des appliances de datawarehouse de Teradata. Il s'ajoute aux options existantes de la base de données Aster, proposées uniquement sous forme de logiciel, et pouvant être déployées dans le cloud, acquise avec le rachat de la start-up Aster Data Systems en mars dernier.

L'appliance annoncée devrait être disponible au premier trimestre 2012. Son prix n'est pas encore fixé, selon Randy Lea, vice-président du centre d'innovation Aster Data chez Teradata. Aster a surtout mis l'accent sur le support du framework de programmation MapReduce pour le traitement des gros volumes de données, de type « Big data », tels que ceux générés par les connexions web et les remontées d'informations provenant de capteurs. Ses outils SQL-MapReduce permettent aux utilisateurs de faire appel aux fonctions MapReduce à partir des logiciels de Business Intelligence ou de fonctions SQL standard. 

Des modules MapReduce pré-construits

La version 5.0 d'Aster Database, également annoncée hier, apporte un certain nombre d'améliorations à ce framework, parmi lesquelles différents modules MapReduce pré-construits, notamment pour l'interprétation des comportements sur le web, pour l'attribution des tactiques de marketing (marketing attribution) et pour les analyses utilisant la méthode de l'arbre de décision. Les autres avancées portent sur la gestion des charges de travail et les performances SQL. Cette version 5.0 devrait être livrée en même temps que l'appliance au début de l'année prochaine, a indiqué Teradata.

Même si les bases de données d'Aster et de Teradata sont destinées aux mêmes traitements analytiques, elles ont des atouts différents et complémentaires, estime l'analyste Curt Monash, de Monash Research. Aster est meilleur sur deux points, selon lui. En premier, elle permet de faire des analyses complexes sur un mode recherche, à la suite de quoi on peut manipuler ces données et en tirer des conclusions qui viendront alimenter une base plus opérationnelle, qui peut être aussi analytique. L'un des points forts de Teradata, c'est justement d'exploiter les bases de données analytiques opérationnelles. « Dans bien des cas, il s'agit du meilleur choix à faire », considère Curt Monash en ajoutant que Teradata est une bonne solution pour réaliser une grande variété de tâches analytiques et plus spécialement dans le cas où il faut en combiner plusieurs.

Illustration : Parmi les applications de l'offre Aster figure des outils d'optimisation des démarches marketing (crédit : Aster Data).

(...)

(23/09/2011 11:48:38)

Un auteur des attaques contre Sony arrêté aux États-Unis

Cody Kretsinger, 23 ans, a été arrêté jeudi matin par le FBI. L'étudiant de Phoenix est accusé de piratage et de complot. Selon l'agence fédérale américaine, celui-ci appartiendrait au groupe de hackers LulzSec responsable de la cyber-attaque menée contre Sony Pictures, au cours de laquelle les données personnelles de plus d'un million de personnes avaient été compromises. Selon les procureurs, Cody Kretsinger et le hacker « Recursion», celui qui a utilisé la technique d'attaque dite par injection de SQL pour s'introduire dans la base de données de Sony Pictures, sont la même personne. C'est lui qui aurait fourni l'énorme quantité de données divulguées par LulzSec le 2 juin 2011, dont des coupons de promotion, les adresses mail et les mots de passe des clients de Sony.

Au moment où LulzSec a posté ces données, Sony se remettait à peine de l'effraction dévastatrice qui avait mis K.O son PlayStation Network, obligeant l'entreprise à le déconnecter pendant plus de deux mois. La remise en route du service lui avait coûté la bagatelle de 183 millions de dollars. « Nous enquêtons toujours sur les dégâts causés par l'attaque contre Sony Pictures », a déclaré le FBI jeudi dans un communiqué. La réponse musclée de Sony pour parer à la diffusion d'un code «jailbreak» permettant de faire tourner sur sa console PS3 des logiciels non autorisés, a transformé l'entreprise en cible de premier plan pour tous les pirates, et les hackers de LulzSec n'ont pas été les seuls à essayer de s'introduire dans les systèmes informatiques du géant de l'électronique.

Des attaques tout azimut cette année

LulzSec a mené plusieurs actions cette année, mettant l'Internet sens dessus dessous. Ainsi, le groupe a piraté plusieurs sites web appartenant à des entreprises en vue et à des agences gouvernementales (la CIA par exemple), et a ensuite joyeusement dispersé les données volées sur le Net sans se préoccuper des conséquences. Depuis, le groupe semble s'être calmé, suite à une série d'arrestations survenues aux États-Unis et en Angleterre. Cody Kretsinger aurait essayé de masquer ses traces en utilisant le service de proxy Hidemyass.com et en effaçant le disque dur de son ordinateur après l'attaque. Aujourd'hui, s'il est reconnu coupable, il encoure 15 ans de prison.

Par ailleurs, le FBI a également annoncé l'arrestation de deux membres présumés du Peoples Liberation Front, un groupe qui, en 2010, a revendiqué une attaque par déni de service DoS de 30 minutes contre le comté de Santa Cruz, en Californie. Comme LulzSec, Peoples Liberation Front s'est affilié au mouvement des Anonymous. Christophe Doyon et Joshua Covelli, les deux membres du Peoples Liberation Front, doivent comparaître pour répondre d'accusations de piratage. Quant à Joshua Covelli, il a déjà été inculpé pour l'attaque menée par Anonymous en décembre 2010 contre le site de Paypal.com.

(...)

(23/09/2011 11:21:01)

IPBX, un marché de nouveau en croissance selon IDC

A l'automne 2008, le marché de l'IPBX était affecté par une baisse en EMEA. L'année 2010 a marqué le retour à la croissance. En 2015, prévoit le cabinet IDC, ce marché atteindra les 5,1 milliards de dollars, avec un taux de croissance annuel composé (TCAC) de 11,9% entre 2010 et 2015.

Cette croissance forte est due selon le cabinet d'études à trois facteurs. D'abord, la modernisation nécessaire de l'équipement en réseaux des entreprises. Elles auront besoin de remplacer leurs plates-formes vocales en TDM devenues obsolètes. Ensuite, elles auront besoin d'intégrer de solutions de communication unifiée et de collaborations pour accompagner de nouveaux processus métier. Enfin, pour faire face au climat économique les entreprises auront intérêt à investir dans l'équipement en téléphonie IP.

Toutefois, l'étude n'est pas totalement optimiste. Une détérioration trop forte de l'économie dans la région EMEA peut modifier de façon spectaculaire les perspectives des prestataires, de leurs intégrateurs et des clients.  Dans ce cas, celui de la crise, les clients mettront l'accent sur les coûts, c'est l'argument qu'il faut travailler leur conseille IDC.

Crédit photo : Panasonic




(...)

< Les 10 documents précédentsLes 10 documents suivants >