Flux RSS
108538 documents trouvés, affichage des résultats 9061 à 9070.
| < Les 10 documents précédents | Les 10 documents suivants > |
(12/02/2010 14:56:51)
Adobe prépare en toute urgence un patch pour une nouvelle faille dans Acrobat Reader.
Le dernier patch d'Adobe pour Flash Player contiendrait toutes les informations nécessaires pour permettre aux hackers d'exploiter une faille similaire présente dans le logiciel de lecture Acrobat. « Nous n'avons trouvé aucune correspondance avec la faille de Flash Player » affirme cependant Brad Arkin, le directeur sécurité d'Adobe. Pourtant, la firme de San José a tout de même qualifié ce problème de « critique » affirmant qu'il faudrait au moins 5 jours aux hackers pour réussir à en profiter. « La faille corrigée sur Flash Player permettait aux pirates d'utiliser un navigateur internet à distance, pour y installer des logiciels sans l'accord des utilisateurs» explique Brad Arkin. Adobe, pourtant habitué à n'offrir qu'une seule mise à jour par trimestre, annonce un autre patch pour mardi prochain 16 février. «Nous avons désormais décidé de proposer le plus vite possible nos mises à jour aux utilisateurs» justifie Brad Arkin. Ce dernier conseille tout de même « aux utilisateurs craignant une attaque sous Reader de réduire les menaces en ouvrant leurs documents uniquement hors de leur navigateur». Les examens de sécurité d'Adobe ont montrés que les tentatives de piratage avaient fortement augmentées sur le logiciel Acrobat Reader depuis l'an dernier. Etant aujourd'hui installé sur pratiquement tous les ordinateurs en circulation, une attaque bien élaborée à partir de du lecteur d'Adobe permettrait en effet d'affecter beaucoup plus de gens qu'en utilisant Internet Explorer ou Firefox. Cette faille concernerait aussi bien les ordinateurs utilisant Windows, que ceux reposant sur les plateformes Linux et MacOS. (...)
(12/02/2010 14:38:50)Annuels Bull : les ventes de matériel et l'infogérance ont tiré le chiffre d'affaires
Le groupe français Bull a achevé son année sur un chiffre d'affaires consolidé en retrait de -2% par rapport à l'an dernier mais en légère progression (+0,3%) sur ses activités principales, souligne Didier Lamouche, son PDG. Le dirigeant insiste aussi sur la rentabilité opérationnelle qui dépasse les attentes, avec un bénéfice d'exploitation atteignant 27,6 M€, alors que l'objectif annuel était fixé à 25 M€. « Notre activité est stable, notamment par comparaison avec certains de nos concurrents ». Le PDG confirme comme prévu la remontée des commandes sur la fin de l'année, après le « trou d'air » subi au troisième trimestre. « Nous attendions +13%, nous avons eu +19% sur les prises de commandes ». En 2009 et sur le quatrième trimestre, ce sont les ventes portant sur l'offre de matériel et sur l'offre Extreme Computing (supercalculateurs) qui ont tiré le chiffre d'affaires. Ces activités ont progressé de 5,8% à 357,7 M€ sur l'année (32,2% du chiffre d'affaires global). Les activités Services et solutions (43,5% du CA) et Maintenance (17,3% du CA) ont de leur côté respectivement baissé de 2,23% et 2,88% sur l'année. Pour 2010, malgré la remontée des commandes, le groupe n'attend « pas de reprise de la conjoncture économique avant le second semestre ». Les premières offres communes avec Amesys, spécialiste des systèmes critiques, rachetées en novembre dernier, seront disponibles à partir du milieu de l'année. Amesys a développé une expertise combinée de l'électronique et de l'informatique, principalement sur les secteurs de la Défense et de l'aéronautique, des télécoms, des transports et de l'énergie.
50% de croissance sur l'offre d'Extreme Computing
Sur les ventes de matériel, le PDG de Bull avance deux motifs de satisfaction sur l'exercice écoulé. « D'une part, nos offres de serveurs 'legacy' GCOS et Unix ont été très stables, d'autre part, notre offre Extreme Computing a crû d'environ 50% et nous espérons une croissance équivalente en 2010. Nous comptons atteindre 15% de ce marché en Europe en 2010. » Didier Lamouche ajoute que l'activité de stockage sécurisé deBull a également progressé, sur un marché en décroissance. Sur le terrain des supercalculateurs, au quatrième trimestre, Bull a été retenu par le pétrolien brésilien Petrobras : « Nous leur avons vendu en décembre le plus gros système d'Amérique du Sud, d'une puissance de 250 Teraflops ».
[[page]]
Sur le trimestre, des contrats ont également été signés avec le secteur de la Défense, en France et au Royaume-Uni. Didier Lamouche indique que la nouvelle de famille de supercalculateurs éco-efficace, Bullx, lancée en juin, a été remarquée par le magazine américain HPCWire parmi les cinq technologies à suivre en 2010. « Nous sommes redevenus un acteur européen majeur de l'économie numérique. Ce n'était pas le cas il y a cinq ans », rappelle le PDG. Il cite aussi en exemple le récent film d'animation, Planète 51, produit par Ilion Animation Studios, dont le rendu graphique a été optimisé sur une ferme de serveurs mise à niveau avec l'offre Extreme Computing de Bull.
En 2010, une offre de calcul à la demande autour du HPC
Sur la partie services, au quatrième trimestre, l'activité d'infogérance de Bull a remporté un contrat important avec un producteur de papier australien. « Nous avons signé le 24 décembre avec PaperlinX qui a 'outsourcé' auprès de Bull l'informatique de ses seize filiales européennes, explique Didier Lamouche. Il s'agit d'un contrat de cinq ans qui va nous conduire à rationaliser leur informatique sur deux datacenters au lieu de seize ». Le PDG rappelle aussi que Bull est l'hébergeur du portail de l'administration française Mon.service-public.fr. En 2010, parmi les vecteurs principaux de progression figurent l'Extreme Computing et l'infogérance. Le groupe va mettre en production un datacenter dans l'Ouest parisien, qui va héberger toutes ses nouvelles technologies de HPC. « Nous voulons fournir une offre de cloud computing dédiée au HPC, explique Didier Lamouche. Il s'agira d'une solution de puissance de calcul à la demande ». Des services de cette nature existent déjà, mais réservées à certains clients (Renault, par exemple). La nouvelle offre pourra s'ouvrir aux PME. Le groupe va par ailleurs embaucher 600 personnes, dont 250 en France, sur le développement de logiciels, l'intégration de systèmes et sur les offres communes prévues avec Amesys. Le fournisseur continuera à faire croître ses efforts de R&D. Il prévoit notamment de livrer deux nouvelles offres sur l'Extreme Computing. (...)
Jasper Forest, un processeur Intel Xeon Nehalem spécial stockage
Intégrant des fonctions Raid et le support de PCI Express, la puce Intel Jasper Forest doit accompagner la montée en puissance des baies de disques et accélérer des fonctions comme la déduplication des données, la copie des disques (snapshot), la virtualisation et tous les usages désormais basiques en matière de gestion de stockage. Jasper Forest, une puce aussi attendue que Tukwila Arun Taneja, fondateur du cabinet d'études Taneja Group spécialisé dans le marché du stockage, a déclaré que, dans la mesure où des processeurs généralistes ajoutent des fonctionnalités supplémentaires et spécialisées (telles que le Raid ou la gestion hardware de la virtualisation), le travail du concepteur de systèmes de stockage devient plus facile en ce qu'il n'a pas à prévoir d'ajouter un matériel spécialisé pour obtenir des performances décentes. « Ça ne pouvait pas arriver à un meilleur moment, puisqu'aujourd'hui un serveur virtuel prend en charge beaucoup plus qu'une seule tâche et exécute de nombreuses fonctions de stockage, qu'il faudrait sinon réaliser autrement,» a t-il déclaré. Dans une interview à notre confrère Computerworld, Intel a indiqué qu'il dévoilera très bientôt le nom de certains clients (chez des intégrateurs et des constructeurs), parmi les premiers, à s'équiper de Jasper Forest. Ce processeur équipera des solutions de types baies blade ultra-denses, des équipements IPTV et VoIP ou encore des systèmes NAS et SAN. Un ratio performance/watt jamais égalé Les processeurs Jasper Forest sont capables de gérer des configurations complexes en Raid 5 ou 6, avec protection des données contre les erreurs d'écritures. La puce d'Intel supporte aussi la spécification Storage Bridge Bay, qui peut être utilisée pour brancher des cartes contrôleurs PCI Express directement sur les baies de stockage, permettant ainsi une architecture plus dense, contrairement aux contrôleurs de stockage actuels qui nécessitent un emplacement dédié. Intel a également indiqué que Jasper Forest devrait permettre de réduire de 27 watts la consommation d'énergie globale des systèmes de stockage par rapport à la génération Xeon 5500. Un gain significatif dans un datacenter. Cette puce Xeon Nehalem Jasper Forest intègre deux processeurs dotés chacun de16 voies PCIe Generation 2.0 et couplés à un contrôleur Intel 3420. Cette intégration des I/O via le PCIe permet des économies significatives d'énergie et d'espace. En fait, ce processeur est l'un des plus aboutis en termes de ratio performance/watt de toute la série des processeurs Intel Xeon. Jasper Forest offre également une large palette de choix pour les concepteurs de systèmes, puisqu'il sera proposé en plusieurs versions, toutes construites sur le même socket, du simple coeur, à 23 Watts, aux quatre coeurs, à 85 Watts. Enfin, ces processeurs sont censés être capables de protéger contre les pertes de données en cas de panne électrique grâce à leur fonction mémoire Integrated Asynchronous Dynamic Random Access Memory Self-Refresh. Ce procédé qui détecte automatiquement l'arrivée d'une panne de courant, permet aux séquences mémoire du contrôleur d'achever leur travail et force la mémoire système à se rafraichir avant de s'éteindre. (...)
(12/02/2010 11:04:14)Le Parlement européen retoque l'accord dit Swift négocié avec les Etats-Unis
Le Parlement européen a rejeté jeudi 11 février un accord intérimaire entre l'Union Européenne et les Etats-Unis sur la transmission à l'administration américaine de données financières relatives à des citoyens européens. Les eurodéputés ont estimé que l'accord ne comportait pas suffisamment de garanties pour la protection de la vie privée. A une forte majorité (378 voix contre 196, et 31 abstentions), le Parlement européen a bloqué l'accord provisoire signé entre 27 pays européens et les Etats Unis, dit accord Swift - qui est le réseau électronique interbancaire - portant sur le transfert vers les Etats-Unis des données bancaires de citoyens européens, signé le 30 novembre 2009 par les ministres de l'intérieur de l'Union européenne. Les arguments des parlementaires européens sont au nombre de trois : - l'accord brise la protection des données prévue en Europe, - l'accord est trop intrusif dans la vie privée des citoyens européens par rapport à son objectif, - il n'existe pas de contrepartie américaine qui ne fournit aucune information aux autorités du contre terrorisme européennes sur les transferts bancaires sur son propre territoire. Photo : le parlement européen (D.R.) [[page]] Face à cette décision du parlement européen, la CNIL a réagi rapidement. Elle estime que les députés ont repris la position exprimée par son président Alex Türk et par le Groupe des CNIL européennes (G29) dans un courrier adressé au président de la Commission des Libertés civiles, de la Justice et des Affaires intérieures du Parlement européen. De fait, Alex Türk s'est effectivement toujours montré extrêmement préoccupé par cet accès excessif des américains aux informations sur le réseau Swift. Il avait décrit l'autisme américain sur le sujet. Au-delà de la protection de la vie privée, ce sont aussi des données concurrentielles que les États-Unis peuvent analyser à leur guise. Au global, les inquiétudes du G29 étaient multiples et portaient en particulier sur : - l'extension du champ d'application de l'accord Europe-Etats Unis au-delà même du cadre de la lutte contre le terrorisme, - l'importance de garantir le caractère exceptionnel des transferts massifs de données aux autorités américaines, - le niveau de protection proposé par le Trésor américain alors qu'il n'a fait l'objet d'aucune procédure d'adéquation par la Commission européenne, - la nécessité de garantir le droit d'accès des personnes concernées, - le maintien des prérogatives des autorités de protection européenne. (...)
(12/02/2010 11:06:19)Avec Triton, Websense propose une solution de sécurité intégrée sur appliance ou en SaaS
«Triton est une plate-forme de management intégrée pour la sécurité du contenu. Notre offre repose sur trois modules : le DLP qui sera disponible à partir du 15 mars, celui pour le web en avril, et le dernier pour l'email en septembre", nous a expliqué Didier Guibal, vice-président en charge des ventes chez Websense, «Notre approche est intégrée ou dissociée au niveau de la plateforme pour répondre à tous les besoins avec notamment un mode hybride qui permet de mixer la sécurité des échanges dans le cloud et sur les sites ». L'idée est de proposer des fonctions de sécurisation du contenu avec des composants pour l'e-mail, le Web et le DLP avec une console unique Triton. Cette offre sera disponible en mode SaaS, en tant qu'appliance ou comme une application qui pourra être hébergé sur un serveur virtuel. « Nous proposons de la souplesse à nos clients qui pourront choisir de déployer une solution hybride pour sécuriser les échanges entre une maison mère et ses filiales en Afrique. Nous travaillons également avec un grand groupe pharmaceutique français pour unifier les politiques de sécurité entre ses filiales récemment acquises » précise Florent Fortune directeur Europe du Sud et Afrique chez Websense. « La notion d'intranet et d'extranet disparait avec l'évolution des usages. Aujourd'hui, les utilisateurs désirant parcourir à titre professionnel les forums ou les plateformes Web 2.0 sont souvent bloqués dans les entreprises faute de politique sécurité adaptée. La notion de firewall devient également obsolète. Aujourd'hui, il faut être capable de tracer les données mas également de savoir qui les a envoyés et où ? Sur un blog, sur un webmail ? » explique Didier Guibal. Il s'agit bien de comprendre l'information qui circule et de catégoriser les données pour automatiser les niveaux de risque. « La détection peut être automatisé à 85% et l'intervention humaine réservée à certains points. Notre produit est d'ailleurs livré avec un moteur de règles contenant 1 100 scénarios ». Websense prévoit de continuer à commercialiser ses produits autonomes Websense Web Security Gateway, Websense Data Security Suite et Websense Email Security. Mais en optant pour l'architecture Triton, les clients seront en mesure d'accorder une licence en tant que composant de sécurité sur une plate-forme partagée, et ce, avec du matériel qui pourrait inclure des services supplémentaires. (...)
(12/02/2010 11:06:21)Des nanoexplosifs pour lutter contre le cancer
Les chercheurs de l'Université de Houston au Texas ont découvert une façon percutante pour tuer les cellules humaines malades: ils utilisent des nanoexplosifs. Le traitement a été testé en laboratoire sur des cellules cancéreuses d'une pathologie leucémique. Dans un premier temps, les chercheurs insèrent des nanoparticules d'or dans les cellules infectées. Ensuite, ils les bombardent au laser pour les détruire. Les nanoparticules commencent alors à gonfler et forment ce que les scientifiques appellent « des nanobulles » qui font exploser la cellule. La nanomédecine ouvre ainsi de nouvelles perspectives « Le plus grand avantage de la nano-médecine, c'est qu'elle nous permet de viser directement une cellule bien précise parmi des centaines d'autres » explique le chercheur en chef du projet, Dimitri Lapotko. « L'idée est de cibler et de traiter les cellules malades avant qu'elles ne se répandent dans l'organisme et rendent la maladie du patient incurable ». La nanomédecine ouvre ainsi de nouvelles perspectives en termes de chirurgie cardiaque puisque les chercheurs sont désormais capables de détruire les caillots bouchant les artères, ainsi que les plaques d'athérome ou le cholestérol qui est la principale cause de crises cardiaques au monde. Des réponses technologiques en constante évolution Une équipe de chercheurs britannique a annoncé en janvier dernier qu'elle lançait un programme d'expérimentation pour implanter, directement sur des patients, des artères artificielles élaborées à partir de polymères, grâce à la nanotechnologie. De même à la fin de l'année 2009, les équipes de recherches en nanotechnologie des universités de Standford et de Toronto avaient réussi à développer des détecteurs sensitifs miniaturisés pouvant détecter des cancers naissant chez un patient, bien avant qu'il soit trop tard. (...)
| < Les 10 documents précédents | Les 10 documents suivants > |