Flux RSS

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

108538 documents trouvés, affichage des résultats 16671 à 16680.

< Les 10 documents précédentsLes 10 documents suivants >


(14/01/2008 11:34:57)

42 To de stockage Fibre Channel ou iSCSI pour les Mac Pro et XServe

Si dans le monde grand public et la musique, Apple encourage le développement par d'autres sociétés de produits compatibles avec les sien, le constructeur est plus frileux dès qu'il s'agit de toucher à ses ordinateurs ou à sa clientèle professionnelle. Dans ces conditions, l'annonce de la SATAbeast X1 de Nexsan fait figure de rareté. En effet, cette baie de stockage 4U est spécialement destinée aux ordinateurs Mac Pro et XServe, et propose jusqu'à 42 TO d'espace de stockage, connectable en Fibre Channel ou iSCSI. Utilisable pour de la sauvegarde disque à disque ou pour de l'archivage, cette baie est avant tout destinée aux marchés de la création et de l'audiovisuel pour le stockage de films haute-définition par exemple. Elle sera commercialisé à partir du 15 mars à partir de 1200 dollars par téraoctet. (...)

(11/01/2008 17:18:25)

Les données clients exposées lors des phases de test

La plupart des entreprises font inutilement courir un risque aux données de leurs clients ou de leurs employés lorsqu'elles testent leurs applications informatiques. C'est ce que révèle un rapport intitulé « Test data insecurity : the unseen crisis », publié en décembre par l'éditeur Compuware et les analystes de Ponemon Institute, à la suite d'une enquête menée en juillet et août dernier auprès de 897 responsables informatiques. On y découvre qu'en Europe, 64% des entreprises interrogées utilisent les véritables données de leurs clients (des données issues de leur système de production) sans prendre la peine de les modifier, lors des phases de test qui accompagnent le développement de leurs applications. Parmi les entreprises françaises sondées, elles ne sont que 43% à avoir reconnu procéder ainsi. Seule concession à la confidentialité : les données sont mélangées au sein des colonnes, de façon à ce que les lignes restent cohérentes. Parmi celles qui le font en France, 66% se servent des fichiers clients complets (63% en Europe) et 37% se bornent à utiliser des listes de clients (45% en Europe). Or, les informations ainsi utilisées incluent la plupart du temps des renseignements sensibles ou confidentiels, tant sur les employés que sur les clients (numéros de référence, de cartes de crédit, de sécurité sociale...). Nécessité d'une prise de conscience Les entreprises pensent généralement que les procédures de tests ne mettent pas en danger ces données privées parce qu'elles ne se déroulent pas dans un environnement de production. Pourtant, les informations ainsi manipulées se retrouvent entre les mains d'intervenants qui ne sont généralement pas autorisées à les consulter, non seulement au sein des équipes internes de l'entreprise, mais aussi et surtout lorsque les tests sont effectués chez des partenaires ou des sous-traitants. L'enquête de Compuware et Ponemon montre justement que 59% des entreprises françaises interrogées externalisent les tests de leurs applications (42% seulement en Europe) et que 81% partagent leurs données de production avec leurs sous-traitants (60% en Europe). Larry Ponemon, président fondateur de l'Institut Ponemon, explique cette pratique risquée par le fait qu'il est plus facile et moins cher d'utiliser des fichiers de données internes pour tester les applications. Mais il souligne à quel point cela peut compromettre la sécurité de ces données confidentielles et insiste sur la nécessité d'une prise de conscience. De fait, l'étude révèle aussi que 38% des entreprises françaises interrogées (35% en Europe) reconnaissent ne pas savoir si l'intégrité de leurs informations a été compromise. Pire, 45% des entreprises européennes admettent que des données utilisées dans le cadre de tests ont été perdues ou volées. (...)

(11/01/2008 16:52:47)

Les réseaux sociaux sont trop lents, selon WatchMouse

Les sites communautaires seraient-ils victimes de leur popularité ? D'après une étude de WatchMouse (une société qui vérifie le comportement et la disponibilité des sites Internet ou des applications), ils ne tiennent pas leurs promesses en termes de disponibilité et de rapidité d'ouverture des pages. WatchMouse a analysé les 104 sites communautaires répertoriés par l'encyclopédie en ligne Wikipedia. Pour mesurer les performances de ces réseaux sociaux, la société s'est basée sur un Indice de performance des sites (SPI), qu'elle a créé. Cet indice consiste à calculer les temps de chargement d'une page d'accueil dans sa version HTML. Pour être considérée comme disponible, cette dernière doit s'afficher en moins de huit secondes, et sans erreur d'affichage. Si une erreur est enregistrée, une pénalité de 10 secondes est attribuée. Les résultats sont décevants : sur les 104 sites analysés, 51 d'entre eux présentent un SPI supérieur ou égal à 1 000, ce qui correspond à un délai de chargement beaucoup trop long. Carton rouge pour Facebook, dont l'indice culmine à 6 629. Des sites comme Twitter, Last.fm, Windows Live Spaces, Friendster ou encore Del.icio.us sont également pointés du doigt par l'étude. Le site Faceparty affiche le meilleur SPI (303), mais son audience s'érode, ce qui signifie que popularité et baisse de performances d'affichage vont de pair. WatchMouse souligne également que la plupart des internautes sont très impatients : ils n'attendent pas plus de quatre secondes le chargement d'une page Web. Si Facebook et autres sites communautaires célèbres veulent rester sur le devant de la scène, ils ont donc encore beaucoup de travail technique pour améliorer la disponibilité de leur page d'accueil . (...)

(11/01/2008 15:56:44)

Selon Gartner, les entreprises ne sont pas prêtes pour des pannes de longue durée

Selon un récent sondage effectué par le cabinet d'étude Gartner auprès de 359 professionnels de la gestion des risques et de la sécurité informatique aux Etats-Unis, en Grande-Bretagne et au Canada, 60 % des entreprises ne prévoient pas de plan de continuité d'activité au-delà de sept jours, voire moins. Pour Roberta Witty, l'analyste responsable de cette étude, c'est une erreur qui « laisse un grand trou dans leurs organisations. L'impact d'un désastre durant plus d'une semaine peut avoir des répercussions énormes sur les revenus et la réputation de l'entreprise. Des incidents locaux, des épidémies, une attaque terroriste ou un problème avec les prestataires de services (ndlr, comme le fournisseur d'électricité) peuvent facilement durer plus de sept jours. » Elle recommande donc d'avoir un plan de continuité de service courant au moins pendant 30 jours. De plus, si la plupart des entreprises prévoient le cas où la panne provient d'un problème interne à leurs systèmes d'information, elle ne sont plus que 77 % à prévoir le cas d'un incendie ou d'une panne d'électricité, 72 % une catastrophe naturelle (de type inondation ou séisme), 50 % une attaque terroriste et seulement 29 % une épidémie. Sur ce dernier point, il y a tout de même une amélioration puisqu'en 2005, seules 8% des entreprises prenaient en compte le risque sanitaire. Côté mise en pratique, 37 % des plans de continuité prévoient la mise en place d'un centre de commande physique, et seulement 31 % un centre virtuel pour que les responsables concernés puissent intervenir même s'ils ne sont pas sur site. Plus inquiétant, 61 % des entreprises ont rencontré des problèmes lors d'exercice de leur plan de continuité de services. (...)

< Les 10 documents précédentsLes 10 documents suivants >