Flux RSS

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

108538 documents trouvés, affichage des résultats 17071 à 17080.

< Les 10 documents précédentsLes 10 documents suivants >


(05/12/2007 17:27:44)

Les entreprises IT vont polluer plus que l'aviation

Le monde compte plus d'un milliard d'ordinateurs, et ce secteur (en plein boom) contribue à 2% des émissions totales de gaz carbonique dans l'atmosphère. Cela peut paraître surprenant, mais il s'agit de la même quantité de gaz dégagés pas nos avions de ligne. Autre exemple marquant : un serveur de taille moyenne émet autant de carbone chaque année qu'un 4x4, qui consomme 15 litres au 100 kilomètres. L'enquête réalisée auprès de 120 sociétés britanniques a en outre constaté que 86 % des sociétés n'avaient absolument aucune idée des conséquences de leurs émissions carboniques informatiques sur l'environnement. Les chiffres publiés par l'étude sont pourtant très parlant : Trewin Restorick, le directeur d'Action Global Plan, n'a pas manqué de souligner que : « l'équipement massif des entreprises en développement IT représente actuellement entre 3 et 4% des émissions de carbone dans le monde (10% pour le Royaume-Uni). Malheureusement, seul un cinquième des entreprises ont réalisé des conclusions statistiques à ce sujet, avant de modifier leur politique en termes d'économie d'énergie ». Autre constat de l'enquête : seuls 40% de serveurs sont exploités, les autres étant souvent inutilisés et relégués à la cave « pour des raisons d'économies d'énergies et de place ». Le coût est un argument mis en avant. L'APS estime toutefois qu'on pourrait réduire de 30% (et très rapidement) le coût énergétique des infrastructures informatiques, en incitant simplement les responsables de ces départements à rationaliser le stockage des données, en réutilisant par exemple des outils jugés trop vieux, mais toujours efficaces, et en faisant confiance aux prestataires proposant la virtualisation des documents. Trewin Restorick, directeur du Global Action Plan et fondateur de la société, confirme : « La conscience est enfin là, mais la transformer en action constitue un autre défi. Les départements d'ICT ont besoin de l'aide. Ils ont besoin des vendeurs pour leur donner de meilleurs renseignements, de politiques gouvernementales adaptées ainsi que d'associations impliquées dans cette problématique ». (...)

(05/12/2007 17:27:01)

Les services informatiques, premiers responsables des fuites de données

Après plus de 100 000 heures d'activité supervisées, le verdict d'Orthus, un cabinet britannique spécialisé dans la sécurité, est tombé. Les services informatiques sont les principaux responsables des fuites de données (à 30 %) devant les services clients à 22 %. Pour Richard Hollis, directeur d'Orthus : « Cette étude confirme la règle : plus les droits d'accès sont élevés, plus la tentation d'en abuser est grande. Les sociétés doivent considérer l'espion interne comme la première menace pour leurs affaires. Sans cela, aucune sécurité réelle ne peut être atteinte. » De plus, l'enquête a prouvé que dans 68 % des cas, des appareils mobiles (portables, PDA, smartphones, voire des baladeurs MP3 ou des clés USB) ont été utilisés. Parmi les autres outils privilégiés pour la fuite de données se trouvent les webmail, les réseaux sociaux et les logiciels de messagerie instantanée. Dans tous les cas observés, une application plus stricte des règles de sécurité internes auraient suffi à éviter ces fuites. Cette enquête a été menée en installant des « mouchards » sur les postes de travail et les serveurs des entreprises impliquées, qui ont fourni une liste de mots-clés et de fichiers sensibles spécifiques à leur activité. (...)

(05/12/2007 17:26:40)

La virtualisation menacerait de saturer les entrées-sorties

La virtualisation des serveurs commence à peine à se répandre que l'on découvre ses limites. La concentration des machines virtuelles sur un nombre restreint de serveurs physiques accroît fortement les besoins d'entrées-sorties. Le risque de saturation à ce niveau risquerait de limiter le niveau de performances. Xsigo, qui tente d'imposer sa solution de mappage virtuel des ressources de stockage, vient de produire une étude centrée sur les entrées-sorties en environnement virtualisé. Conduite auprès d'une centaine d'informaticiens employés dans autant de grands comptes américains, cette étude montre que pour 75% d'entre eux, un serveur qui héberge des machines virtuelles requiert sept ou plus E/S, alors qu'elles ne sont que deux à quatre sur des machines traditionnelles. De ce constat découlent les suivants : - 58% des informaticiens interrogés ont dû augmenter les E/S sur leurs serveurs virtualisés ; - 65% considèrent la simplification du câblage comme une priorité ; - 35% ont dû reconfigurer les connexions d'E/S au moins une demi-douzaine de fois au cours des douze derniers mois. Selon Xsigo, qui prêche bien sûr pour sa chapelle, l'ensemble de ces contraintes a d'importantes répercussions. Cela peut conduire à la mise en place de serveurs avec une taille de 4U, les 1U ne pouvant pas accueillir un nombre suffisant d'adaptateurs d'E/S. De plus, Xsigo affirme que "la connectivité limitée" des serveurs lames s'avère être un véritable handicap. A moins d'opter, bien évidemment, pour une virtualisation des E/S dont se chargerait à merveille le VP 780 I/O Director qui exploite Infiniband et ses 10 ou 20 Gigabit. Rappelons que, de leur côté, tant HP qu'IBM, les deux fournisseurs qui se partagent l'essentiel du marché des serveurs lames, proposent soit Virtual Connect (HP), soit Open Fabric Manager (IBM) qui permettent de virtualiser les E/S de leurs serveurs lames. (...)

(05/12/2007 17:25:48)

Les Trophées du Libre récompensent des lauréats internationaux

Une dimension internationale. C'est une des caractéristiques qui pourraient définir la 4e édition des Trophées du Libre qui a récompensé, à l'occasion du concours international du logiciel libre organisés à Soissons, six projets innovants Open Source, chacun d'une nationalité différente. L'édition a ainsi été marquée par une augmentation de 60% de candidats étrangers, contre 20% en 2006, explique le Cetril (association pour la promotion des logiciels libres auprès des entreprises, collectivités, administrations et organisations), organisatrice de l'événement, dans un communiqué. Il y a eu 149 candidats issus de 29 pays, « 50% de projets européens et 50% pour le reste du monde ». Parmi les lauréats 2007, notons la présence du projet suédois Bioclipse, qui reçoit le prix spécial du jury décerné pour la première fois. Bioclipse est une plateforme visuelle pour la chimie et la bioinformatique reposant sur Eclipse RCP (le socle client riche). Les lauréats 2007 : - Prix Spécial du jury : Boclipse (Suéde) - Sécurité : rsyncrypto (Israël) - Logiciels d'entreprise : LimeSurvey (Allemagne) - Logiciels éducatifs : Chronojump (Espagne) - Multimedia / jeux : mediabox404 (France) - Administration et collectivités : DRBL (Taiwan) - Logiciels scientifiques : SAGE (Etats-Unis) (...)

(05/12/2007 16:25:24)

Le médecin du travail d'IBM La Gaude lâché par l'inspection du travail

Georges Garoyan ne sera plus le médecin du travail d'IBM La Gaude (Alpes-Maritimes). Le 27 novembre, l'inspecteur du travail a notifié au médecin salarié du service de santé Ametra son changement d'affectation, décision qui entérine l'avis de la direction. Selon nos informations, le rapport établi par la médecine du travail considère que l'implication réduite du médecin en milieu professionnel et son absence d'approche partenariale des problèmes de santé au travail s'avèrent non compatibles avec la prise en charge d'un établissement de la taille d'IBM La Gaude. Une décision qui fait suite aux résultats d'une enquête contradictoire conduite sur le site d'IBM La Gaude le 21 novembre dernier, en seulement une demi-journée. Georges Garoyan considère qu'il lui est reproché en filigrane la forme de sa communication, plus exactement la franchise de ses diagnostics. « Les raisons invoquées par la direction départementale du travail sont totalement fantaisistes et infondées, justifie-t-il. Il semble que mes employeurs ne souhaitent pas qu'un médecin leur crée des ennuis. Or, ce n'est pas en agissant ainsi, que nous pourrons contribuer à améliorer la santé des salariés au travail. » (...)

(05/12/2007 16:09:37)

Création du Anti-Malware Testing Working Group

La semaine dernière, à l'occasion d'une conférence qui s'est tenue à Séoul, les acteurs du marché de la sécurité et des organisations spécialisées dans les tests sont tombés d'accord sur la création d'un organisme qui régulera les tests de sécurité comportementale. Baptisé Anti-Malware Testing Working Group, cet organisme souligne les lacunes dans les tests actuellement pratiqués sur les produits de sécurité. En effet, la plupart des tests se contentent de mesurer la capacité d'un anti-virus à détecter un virus en s'appuyant sur sa base de signature. Or, comme le souligne l'organisme nouvellement créé, ces tests ne traitent qu'une partie du problème de la sécurité et sont, par exemple, incapables de détecter qu'un programme a commencé à dialoguer avec un serveur distant, domaine de la sécurité comportementale. « La plupart des produits sont actuellement testés sur une série de virus complètement obsolètes, ajoute même Andreas Marx, collaborateur de AV-Test.org, une organisation allemande de tests de logiciels d'anti-virus. Dans la plupart des cas, les logiciels passent le test. » En d'autres termes, une grande partie de la réalité des véritables menaces de sécurité informatique est aujourd'hui ignorée par les tests. Des règles communes pour définir les jeux de tests La création de tests de sécurité comportementale est une opération d'autant plus complexe qu'elle doit tenir compte des informations remontées par différents logiciels associés à la sécurité informatique. Il semblerait qu'il y ait une véritable volonté des acteurs du marché d'arriver à mettre en place ces règles de test puisque des éditeurs tels que Panda, F-Secure, Sunbelt Software, Symantec mais aussi des organismes de tests, dont AV-Test.org and Virus Bulletin, ont rejoint l'Anti-Malware Testing Working Group dès sa création. Les premières retombées sont attendues pour le début 2008 avec un premier jet de règles qui seront proposées aux organismes de test. L'organisme prévoit également un forum destiné à la gestion des disputes et autres désaccords récurrents entre les éditeurs et les organismes de tests. On ne peut que souhaiter un bel avenir à l'Anti-Malware Testing Working Group quand on tient compte des récents tests de sécurité comportementale réalisé par AV-Test.org : sur huit produits testés, aucun n'était suffisamment performant sur la sécurité comportementale. Gageons que l'Anti-Malware Testing Working Group va pousser les éditeurs de marché à plus de rigueur, de fonctionnalités ou/et d'innovations pour protéger efficacement les utilisateurs des vraies menaces de sécurités actuelles. (...)

(05/12/2007 14:45:37)

Ted T'so rejoint la Linux Foundation

Connu pour être l'un des développeurs les plus actifs du noyau Linux - et l'un des premiers historiquement aux Etats-Unis, Ted T'so vient d'être nommé responsable de la stratégie plateforme de la Linux Foundation. Actuellement à la tête de l'équipe de développement de «Real-Time Linux» pour IBM, il va prendre un congé de deux ans pour intégrer la Linux Foundation. A son poste, il sera notamment chargé du développement de la Linux Standard Base (LSB), un ensemble de règles devant assurer la compatibilité des différentes distributions de Linux entre elles. Ted T'so travaillera principalement avec les équipes de développement, mais sera également en relation avec les groupes de travail « Utilisateurs finaux » et « Revendeurs » de la Linux Foundation. (...)

< Les 10 documents précédentsLes 10 documents suivants >