Flux RSS
Infrastructure serveur

2924 documents trouvés, affichage des résultats 991 à 1000.
< Les 10 documents précédents | Les 10 documents suivants > |
(12/07/2010 12:22:46)
Le Syntec formalise les contrats SaaS
Avec l'aide d'Olivia Flipo, avocate chez, Staub & Associés, le Syntec Informatique a donné les grandes orientations d'un contrat SaaS. Cette méthode de distribution des applications est devenue la porte d'entrée du cloud, mais elle nécessite quelques spécificités juridiques à prendre en considération lors de la signature d'un accord entre client et prestataire. Dans le guide produit par le syndicat et la juriste, il est souligné qu'un contrat Software as as Service est complexe, car il fait appel à plusieurs type de contrats, logiciel, maintenance et assistance technique. Nonobstant, les problématiques sont connues en tournant autour de 3 points, auxquels le Syntec apporte des réponses.
Une charte de qualité
Si le préambule du contrat est essentiel en matière de définition du service et des objectifs poursuivis pour fixer les responsabilités du prestataire, une attention particulière sera portée sur la qualité des applicatifs. Ainsi, le guide explique « l'impact des pannes pouvant avoir de graves conséquences pour le client. En dépit du fait que le client a de fortes attentes, le prestataire ne saurait être responsable de toutes les défaillances et notamment celles du réseau Internet. Il faut donc être très vigilant lors de la rédaction de cette clause, la plupart des interruptions étant fréquemment liées à des problèmes réseaux, voire à des virus ou malveillance. » Il est donc conseillé d'intégrer la mise en place d'un service redondant permettant de contourner les pannes d'origine matérielle ou réseaux. De plus, le syndicat propose la rédaction d'une annexe spécifique la création d'une charte de qualité ou la mise en place de SLA.
Ainsi sur les performances, cette charte doit comprendre des éléments très précis en définissant « des niveaux de performances minimum attendus ainsi que d'anticiper et de corriger d'éventuelles défaillances. Il n'est pas inutile de mettre à disposition des futurs utilisateurs un profil de performances de l'application par heure, par jour, par semaine, par mois. » Idem sur la partie réseaux où les parties doivent indiquer la capacité de bande passante, les consignes de tests et les dispositifs d'assistance.
Crédit Photo: DR
[[page]]
En matière de sécurité des données, le guide renvoie à la loi Informatique et Liberté, mais encourage en cas d'informations sensibles le recours au cryptage. Par ailleurs, un audit technique doit être intégré dans le contrat « compte tenu du caractère très confidentiel de telles ou telles données circulant en mode SaaS ». Cet audit est encadré, tiers indépendant, coûts, modalités, périodicité, personnes autorisées, etc.
Une réversibilité balbutiante
Au coeur des débats sur le cloud, la question de la réversibilité du contrat, c'est-à-dire la récupération des données lorsque le contrat avec un prestataire est rompu, trouve un début de réponse dans ce guide. « Si en mode SaaS, la réversibilité est simplifiée, le rapatriement en interne d'une application hébergée peut s'avérer problématique, s'il faut convertir le format des données » explique le guide. Cela suppose de vérifier l'intégrité des données et de déterminer un mode d'exécution en parallèle jusqu'à la fin de la conversion. Si les conditions techniques ne sont pas résolues, « les parties doivent prévoir de renvoyer l'élaboration du plan de réversibilité, dans un délai donné, lors de l'exécution du contrat » précise le guide.
Par ailleurs, le contrat doit bien préciser le pays de localisation des serveurs et donc d'hébergement des données pour deux raisons : éviter qu'en cas de litige ce ne soit la loi du pays où se trouvent les serveurs qui s'applique, même si la localisation du serveur ne suffit pas, à elle seule, à déterminer la loi applicable. En second lieu, permettre aux clients d'effectuer les déclarations requises auprès de la CNIL.
Le marché des semi-conducteurs va progresser de 8,8% par an d'ici 2014
IDC dresse un tableau de l'évolution des semi-conducteurs entre 2010 et 2014. Ce marché avait diminué de 9% en 2009. En 2010, il marché devrait se monter à 274 milliards de dollars avant de passer à 295 en 2011 et d'atteindre les 344 en 2014. Une croissance moyenne de 8,8% par an. Cette croissance sera à deux chiffres sur le marché des PC, tiré par les applications pour PC mobiles, et celui des smartphones. Ce sera également le cas pour l'industrie militaire, l'aéronautique, l'automobile.
Ces données sectorielles s'accompagnent de l'envolée de la mémoire (DRAM et flash), indispensable pour les ordinateurs portables, les netbooks et les smartphones (...)
Réorganisation fonctionnelle à la CNAF
Ancien DSI de la Caisse Nationale des Allocations Familiales (CNAF), Gérard Russeil, aujourd'hui chez Chorégie (un GIE de mutuelles), a eu pour délicate mission de piloter la transformation de la vieille maison en charge du calcul des droits et du versement des prestations sociales à destination des 11 millions d'allocataires et des 33 millions de bénéficiaires (1 allocataire = 1 famille et 1 dossier). En 2009, 67 milliards d'euros ont ainsi été versés par les services de la CNAF.
Parmi les derniers chantiers, la mise en oeuvre du projet phare du Martin Hirsch, l'ancien Haut-commissaire aux solidarités actives contre la pauvreté, le RSA. « On connaissait le projet et on avait une date butoir pour calculer et verser les allocations. Il s'agissait d'un gros changement par rapport au RMI. La prestation touche un public plus large avec notamment le versement d'une allocation complémentaire à une activité salariée qui varie en fonction des ressources », précise l'ancien DSI. Le dispositif est assez complexe et concerne des personnes dans des situations sensibles. Le moindre retard aurait en effet entrainé des débuts de mois difficiles dans certains foyers. « Nous avons effectué le travail en moins de six mois pour tenir les délais avec les Conseils Généraux. » La CNAF est l'opérateur de paiements des droits aux bénéficiaires, le dialogue est donc permanent avec Pôle Emploi et les Conseils Généraux. « Nous devons nous mettre à la disposition de nos partenaires pour assurer les traitements et les paiements des prestations ». Dernière demande émanant du gouvernement, la suppression des allocations familiales en cas de manquement aux responsabilités familiales. « Il a fallu répondre rapidement à cette demande. Nous étions un peu time to market », précise Gérard Russeil.
[[page]]
Pour répondre à ses nombreuses missions, l'ancien DSI peut compter sur 900 salariés en interne et 150 consultants. « Dans l'obligation de travailler avec d'anciennes technologies comme le Cobol, nous confions progressivement à des prestataires externes pour développer en interne de nouvelles compétences ». 150 personnes travaillent par exemple sur le moteur public. Les départs en retraite sont encore replacés et les effectifs repositionnaient sur les secteurs d'avenir. « La règle de la DSI était de conserver les effectifs pour préserver le fonctionnement du système d'informations. La dispersion territoriale, très forte, correspond aux développements rapides des CAF après la Seconde Guerre Mondiale ». Des outils Java ont ainsi été développés pour faciliter la maintenance et unifier les 36 000 postes de travail dans les différentes antennes régionales. Une fois déballés, ces derniers sont immédiatement opérationnels. 23 000 postes qui combinent téléphonie et accès aux applications en ligne sont utilisés par des techniciens sur le portail Nims (Navigateur Intranet Multi Services). Le CRM repose également sur un développement interne pour assurer un workflow numérique. Sans papier, les CAF locales bénéficient de moins de contraintes pour le traitement des dossiers. « Les déclarations de ressources en ligne ont atteint 40% en moyenne en 2008 et même 50% dans certaines CAF. Mais personne ne doit être exclue par la fracture numérique, les autres ressources d'accès doivent rester disponibles », explique encore Gérard Russeil.
Repenser la dispersion géographique de la Cnad
Un des grands chantiers 2009/2010 portait sur une réorganisation des huit centres régionaux de production de la CNAF qui reposent encore sur des mainframes. Cinq sont fournis par Bull et les trois autres par IBM. Tous les métiers de la DSI sont basés sur ces huit entités qui travaillaient en parallèle avec les mêmes applications. Le grand projet de Gérard Russeil consistait donc à spécialiser ces centres avec pour chacun une mission et une certification bien particulière. « Avec l'aide de nos partenaires, nous avons réalisé une concentration technique sur les huit centres. A Bordeaux le traitement et le calcul des droits qui fonctionnent avec notre moteur Cristal, à Dijon la paie, à Rennes l'analyse décisionnelle, au Mans la GED, à Valenciennes l'acquisition automatique de documents, à Paris le plan de reprise et l'intégration des recettes et des systèmes au niveau national, à Lyon, le développement et à Nice l'hébergement du site Caf.fr qui support 1,2 million de connexions par jour. » Pas encore de cloud, mais Gérard Russeil nous avouait réfléchir à un cloud interne commun aux huit centres de production. Cette réorganisation a toutefois permis de gagner en performances à Bordeaux, notamment grâce au passage à la base de données PostGreSQL et à de nouvelles machines Bull (voir encadré).
Pour son grand chantier mainframe, la DSI de la Cnaf a demandé aux équipes de revoir et de documenter leurs méthodes de travail pour répondre à la norme ISO 20 000 en vue d'une certification en 2012. « Il s'agit de partager la même méthode de travail dans tous les centres entre clients et fournisseurs et de passer de 8 organisations à une seule globale. ». Certains centres développent même de nouvelles compétences comme l'audit green IT à Bordeaux avec le concours d'APC. L'unité de Grenoble, qui dispose de systèmes Bull, surveille en temps réel le centre de Bordeaux. Si la collaboration avec Bull n'est pas remise en question, la Cnaf se dirige progressivement vers des solutions Open Source et non-propriétaires. « Notre patrimoine logiciel est trop important pour retomber dans des systèmes fermés ».
(...)(08/07/2010 15:00:29)HP, 1er contributeur aux tests TPC-Energy
Premier constructeur à utiliser la spécification TCP-Energy, Hewlett-Packard a présenté les résultats des tests de performance pour quatre de ses serveurs. « L'énergie est devenue un enjeu croissant dans le coût global » pour de nombreuses entreprises, a déclaré Karl Huppler, président du TPC. « Le nouveau test de référence qui estime le rendement en watts dépensés leur permettra de juger de l'efficacité de leurs systèmes énergétiques, » a-t-il ajouté. « Combiné à d'autres tests mis au point par le TPC, le TPC-Energy peut aider les clients à estimer le prix, la performance et la consommation d'énergie de tout système transactionnel donné, » indique l'association qui regroupe des éditeurs de logiciels, des fabricants de matériel, mais aussi des organismes de recherche et des organisations d'utilisateurs. « Un système peut fournir un niveau supérieur de performance, mais peut ne pas être aussi efficace en terme de watts par transaction,» a déclaré Mike Nikolaiev, président du comité de TPC-Energy, par ailleurs en charge de l'optimisation de la performance chez HP.
Une série de benchs pour mesurer les performances
Introduit en décembre, le TPC-Energy mesure le nombre de transactions qu'un serveur peut effectuer par watt. Les transactions sont évaluées à l'aide de l'un des trois autres tests TPC - TPC-E, TPC-C et TPC-H utilisés pour noter les performances du serveur. Le banc test TPC-E simule le profil de charge des systèmes de transaction en temps réel (OLTP - On Line Transaction Processing), typiquement le mode de fonctionnement d'une entreprise de courtage. Un test plus ancien, le TPC-C, permet également de simuler un environnement OLTP, et mesure les performances de machines en environnement serveur. Le troisième, TPC-H, simule la requête ad hoc, l'aide à la décision et la répartition de la charge de travail.
Quatre serveurs HP sur le grill
HP a fait passer les quatre tests à ses nouveaux serveurs ProLiant. En TPC-E par exemple, le système HP ProLiant DL585 G7 a exécuté 1.400 transactions par seconde (TPS) en utilisant 6,72 watts. En revanche, l'autre système ProLiant DL580 G7 a consommé 5,84 watts pour exécuter 2001 TPS. En comparant la performance du DL585 et du DL580 établie par les tests TPC-E avec le test TPC-Energy, on pourrait conclure que le DL580 est le meilleur choix, tant pour le débit TPS que pour la consommation d'énergie. Mais le programme encourage à prendre en compte les prix du système. Dans ce cas, le DL580 est plus cher que le DL585 quand on considère la côte dollars-par-TPS (347 contre 330 dollars US). Le système basé sur le DL580 « obtient le meilleur rendement, mais coûte un peu plus cher,» a déclaré Mike Nikolaiev.
Illustration : serveur Proliant GL585 G7, crédit HP
[[page]]
Pour mesurer la consommation globale d'énergie du système, on teste chaque sous-système avec un certain nombre d'analyseurs de puissance, lesquels envoient un flux de données au logiciel Energy Measuring System fourni par TPC qui se charge de rassembler les résultats. Le logiciel est aussi capable de décomposer les besoins énergétiques par sous-système, pour montrer par exemple ce que consomment respectivement un serveur d'application, un serveur de base de données, des unités de stockage et autres sous-systèmes. « Les tests pour mesurer la performance par sous-système sont optionnels, » a indiqué Mike Nikolaiev. Dans tous les cas, comme pour les autres benchmarks TPC, il revient aux vendeurs d'effectuer eux-mêmes les tests, de trouver laquelle de leur configuration est optimale et de soumettre leurs résultats à l'examen de l'association TPC pour figurer éventuellement dans la liste des meilleurs participants. Une obligation cependant : chaque type de résultats doit être vérifié par une tierce partie.
D'autres résultats attendus
Avec HP comme premier contributeur, TPC espère motiver les autres membres à présenter les résultats de tests TPC-Energy effectués sur leurs propres systèmes. L'organisation à but non lucratif consacrée au développement d'outils d'évaluation des performances des systèmes de traitement transactionnels et de base de données est financée par des entreprises informatiques comme AMD, Cisco, Dell, HP, IBM, Intel, Microsoft, Oracle, Unisys et d'autres.
Les datacenters principaux concernés
Le travail sur le TPC-Energy réalisé par l'association arrive à un moment où l'Agence pour la protection de l'environnement américaine intensifie ses propres actions pour améliorer l'efficacité énergétique des centres de données. En dehors du test TPC-Energy, l'association travaille à mettre au point un nouveau test de référence pour mesurer la charge de travail des data warehouse, appelé le TPC-ETL, et un autre pour mesurer la charge de travail des systèmes de virtualisation, le TPC-Virtualization. Elle planche également à une mise à jour du TPC-H.
Spie Communications acquiert Veepee
Drôle d'anniversaire pour Veepee, qui s'offre pour ses 10 ans, à Spie Communications. Aucun montant n'a été dévoilé sur cette union, mais l'opérateur de services IP a réalisé en 2009 un chiffre d'affaires de 16 millions d'euros. Fondé par Eric Rousseau, Veepee a démarré sur un marché de niche très porteur, les médias en assurant, via une plateforme multi-opérateurs, l'envoi des fichiers (photos, maquettes, vidéo etc.) aux imprimeurs ou aux diffuseurs. Cette expertise a évolué avec le temps vers les services managés et plus récemment vers les offres clouds. Il dispose de son propre datacenter en plein coeur de Paris.
L'acquisition par Spie Communications ouvre donc une autre étape de la vie de Veepee avec une industrialisation des services proposés. Pour l'intégrateur, cette opération lui permet de répondre à des demandes spécifiques (maîtrise du Wan, criticité et sécurisation des infrastructures IP) des PME et grands comptes. Veepee, qui va devenir une filiale, comprend 60 personnes et les différentes équipes seront intégrées au sein de Spie Communications.
IBM et l'Union européenne créent un consortium sur le cloud
Cette entité devrait développer des modèles scientifiques sur des systèmes informatiques, capables de gérer les services web depuis différents environnements matériels et logiciel dans un système cloud flexible, explique IBM dans un communiqué.
Les systèmes actuels ne sont pas maniables et chaque modification nécessite une intervention manuelle. Les chercheurs espèrent trouver un cadre pour réduire le temps de conception et le déploiement de ces services en les accueillant sur un cloud central. Ces travaux pourront s'inspirer d'un projet déjà mis en route, baptisé Pincette.
Les chercheurs se pencheront également sur un projet nommé ACSI (Artifact Centric Service Interoperation), qui repose sur le concept, introduit cette année par IBM, de hub d'interopérabilités. Ces pôles offrent une plateforme cloud au sein de laquelle les logiciels en ligne et les services peuvent facilement être créés et déployés. Les clients paieront pour le service d'intégration et aussi pour l'hébergement en fonction des données stockées et les transactions réalisées.
Les universités retenus pour ce consortium sont la Sapienza Universita de Rome, L'université libre de Bozen Bolzano, l'Imperial College (Royaume-Uni), la Technische Universiteit Eindhoven (Pays-Bas), L'Université de Tartu en Estonie et enfin Collibra NV (Belgique).
APX se renforce dans la virtualisation avec Kappa
Les projets de virtualisation de postes de travail ne sont pas encore légion. Mais ce marché représente un potentiel de revenus importants qui aiguise l'appétit des prestataires de services en infrastructure. Encore faut-il qu'ils aient les compétences pour en capter une partie. Tel n'était pas le cas de la SSII APX qui vient de remédier au problème en rachetant sa consoeur Kappa. Cette structure de taille modeste a réalisé en 2009 un chiffre d'affaires de 7 M€ pour un effectif de 30 personne réparties entre Lorient (siège) et Paris. Elle réalise 40% de son activité autour des solutions de VMware, 40% autour des solutions Citrix et 20% autour d'hyper-V de Microsoft. L'an dernier, APX affichait quant à elle 178 M€ de chiffre d'affaires pour plus de 1500 collaborateurs.
Ambition dans la virtualisation
« Nous voulons devenir le leader sur le marché de la virtualisation », martèle Bruno Lampe, le directeur général et co-fondateur d'APX. Or, jusqu'ici, la SSII ne pouvait mettre en avant dans ce domaine que des compétences dans la virtualisation des serveurs, dont dispose également Kappa, et du stockage. « Il est essentiel que nous maîtrisions toutes les problématiques de la virtualisation. Après les serveurs, l'enjeux est aujourd'hui d'être bien positionnés sur le poste de travail où la compétition s'organise. Cela nous permettra de profiter dans les meilleurs conditions de l'envolée des projets de virtualisation du stockage attendue en 2011 », explique Bruno Lampe.
[[page]]
Le rachat de Kappa va également permettre à APX de dégager plus de revenus récurrents. Grâce aux compétences de son acquisition, la SSII va en effet proposer des services de support de niveau 2 et de maintien en condition opérationnelle autour des technologies Citrix et VMware.
Une intégration en douceur
Pour parvenir à l'intégration totale des équipe de Kappa au sein des siennes, APX veut agir en douceur. Un souci qui témoigne de l'expérience acquise par la SSII dans ce type d'opération qu'elle a mené dix fois lors des dix dernières années. En pratique, le nom de Kappa et le mode de fonctionnement de ses équipes vont perdurer jusqu'au 31 décembre prochain. A l'issue de cette période, elles rejoindront le pôle virtualisation d'APX. Il sera dirigé par Armel Kermorvant qui n'est autre que le président de Kappa. Celui-ci sera notamment chargé de diffuser le savoir-faire de ses équipes en termes de virtualisation de postes de travail à travers les 13 agences d'APX en France. (...)
EMC acquiert Greenplum, spécialiste de la BI
EMC va s'emparer de la société Greenplum, pour un montant non dévoilé. Cette acquisition devrait donner naissance à une entité spécifique, « Data Computing Product » sur la technologie proposée par la jeune société. Elle sera dirigée par le CEO de Greenplum, Bill Cook qui répondra à Pat Gelsinger. L'entreprise vend des logiciels pour analyser de grandes quantités d'informations qui sont collectées dans plusieurs bases de données et traitées séparément pour apporter plus rapidement des résultats aux requêtes. « La solution repose sur l'infrastructure de stockage et de calcul de la société pour permettre aux utilisateurs d'obtenir des réponses sur les données » souligne Scott Yara, co-fondateur de Greenplum.
Lors d'un passage à Paris pour signer un partenariat de distribution avec Team Partner, les deux fondateurs de Greenplum, Scott Yara et Luke Lonargan, ont présenté leur société. Basée à San Mateo en Californie, elle a été fondée en 2003. Elle compte 140 employés, qui seront intégrées dans EMC. Pour la petite anecdote, on retiendra que le nom de la société a été trouvé par un des enfants d'un dirigeant, qui après avoir proposé Apple, a finalement choisi ce qu'il voyait dans un panier de fruit, Greenplum (reine claude). Lors d'une discussion avec Luke Lonargan, il nous avait indiqué être en discussion avec EMC et vouloir proposer à la fin de l'année 2010 une appliance (en concurrence avec Terradata ou Netazza).
La donnée a une valeur ajoutée
A travers plusieurs exemples, Greenplum a démontré la valeur ajoutée des millions d'informations intégrées dans les bases de données. Ainsi, pour l'opérateur T-Mobile, le traitement des données a permis de comprendre les raisons du taux d'attrition des abonnés et de leur proposer des offres ad hoc.
[[page]]
Un service à la volée a même était installé, pour que les salariés puissent, sans passer par les responsables IT, émettre des requêtes sur la base de données. Idem pour une banque américaine, qui avec la crise, avait eu l'opportunité d'acquérir plusieurs sociétés concurrentes. Elle a chargé Greenplum de travailler sur les différentes données pour mieux accompagner les clients des différentes sociétés rachetées (offre adaptée, uniformisée, etc.). Luke Lonargan explique que « peu de gens savent que les données de leur entreprise représente un atout majeur, il suffit simplement de leur démontrer que la donnée a une valeur ajoutée à condition de la traiter ».
Pour EMC, l'intégration de la technologie Greenplum va impacter plusieurs divisions dont le stockage, la sauvegarde, la sécurité. Elle suivra en cela l'expérience du rachat de Documentum, à la différence que ce dernier traitait des données non structurées, alors que Greenplum s'adresse aux informations structurées, souligne Chuck Hollis, vice-président d'EMC. Celui-ci a déclaré qu'il continuera à vendre l'ensemble du portefeuille de produits Greenplum tout en développant un matériel intégré. EMC poursuit ainsi sa montée en puissance autour des services du traitement de la data et de la BI. Il est probable que cela annonce d'autres acquisitions en la matière pour compléter cette nouvelle division.j
Nokia cède son activité de modem wireless à Renesas
Nokia souhaite se concentrer sur les services et trouver un deuxième souffle dans la téléphonie mobile à l'heure du tactile. Il a annoncé la cession de son activité modulateur/démodulateur sans fil au japonais Renesas. Cette activité conçoit des modules GSM et 3G, mais également LTE et HSPA. L'activité comprend 1000 personnes dans les laboratoires de R&D, situés en Finlande, Inde, Grande-Bretagne et Danemark.
Cette opération, estimée à 200 millions de dollars, implique également la mise en place d'une structure commune de recherche sur les technologies sans fils.
Panne informatique majeure dans une banque de Singapour
La défaillance a touché le back-end du système informatique de la DBS Bank, rendant impossible pour ses clients de retirer de l'argent dans les distributeurs lundi matin. « Nous avons su qu'il y avait un problème dès 3h du matin (heure de Singapour), et à 10h, tous nos sites et distributeurs de billets étaient redevenus opérationnels. Nous menons pour l'heure une enquête afin de déterminer la cause du problème d'hier, et nous ne sommes donc pas en mesure de commenter sur ce sujet pour le moment » a écrit Jenny Lee, porte-parole de la banque, dans un email.
Des mesures temporaires pour pallier au problème
Cette panne a affecté tous les systèmes bancaires de DBS, qu'ils soient à destination des consommateurs ou des entreprises, mais aucune donnée n'a été perdue durant l'incident, a-t-elle précisé. Quand les agences du groupe ont ouvert lundi à 8h30, elles acceptaient les remises d'argent contre chèque d'un montant maximum de 359 $, jusqu'à ce que les systèmes soient restaurés. Les clients pouvaient aussi retirer de l'argent au guichet, et les banques sont restées ouvertes deux heures supplémentaires.
IBM mène l'enquête
La cause exacte du problème étant encore incertaine, DBS mène actuellement l'enquête, aidée par IBM qui assure un contrat d'externalisation pour certaines activités de l'organisme financier. « La banque dispose de multiples niveaux de contrôles pour se prémunir de tels événements, et c'est bien la première fois qu'un problème de cette nature se produit. Nous conduisons une investigation la plus complète possible avec notre principal fournisseur informatique, IBM », a affirmé David Gledhill, directeur du groupe Technology and Operations de la banque. Les raisons pour lesquelles les systèmes de backup n'ont pas empêché cette panne totale ne sont pas encore connues.
Crédit photo : D.R.
[[page]]
En novembre 2002, DBS a signé son contrat de sous-traitance avec IBM d'une valeur de 1,2 milliard de dollars de Singapour. L'accord incluait le transfert de 500 salariés de la banque vers des infrastructures de la firme d'Armonk à Singapour et à Hong Kong. Le panel que recouvrait cet accord était relativement large, IBM ayant accepté de « mettre à disposition un support client 24/7, de gérer la plupart des applications de la DBS, et de mettre en place des règles de gestion uniforme des systèmes » d'après le communiqué annonçant le contrat. Les plateformes construites, dans ce cadre, par l'entreprise utilisaient, d'après elle, « des technologies de pointe améliorant la puissance de calcul, la sécurité et les capacités de backup des systèmes d'information de DBS ». La banque gardait quand même le contrôle des fonctionnalités IT clés, notamment les aspects stratégiques, d'architecture et de sécurité.
Big Blue a précisé s'être considérablement impliquée dans la remise en route des ordinateurs de la banque le lundi même. « IBM, conjointement avec DBS, a travaillé à la restauration des services perturbés par la panne des systèmes. L'entreprise s'est engagée à travailler avec la banque dans son effort d'investigation sur les causes de cette défaillance, mais aussi à l'aider à fournir des services clientèle de qualité » a indiqué Alvin Lai dans un email.
La banque a des comptes à rendre
Cet effondrement informatique a attiré l'attention de la MAS, la banque centrale du pays, qui supervise l'industrie des services financiers de la cité État. « Les banques sont obligées, étant donné les risques, de mener rapidement les enquêtes en cas de panne de la structure informatisée, et de prendre des mesures immédiates pour les corriger et remettre en place leurs services. Le renforcement du système est par la suite requis afin d'éviter que les problèmes ne se réitèrent » a informé la porte-parole du MAS. Les banques de Singapour sont obligées de suivre des règles précises, édictées par l'Autorité, en matière de gestion du risque et de la sécurité. Elles sont conçues pour assurer la « robustesse et la flexibilité » de l'informatique bancaire et financière. « La MAS évalue la mise aux normes des banques dans le cadre de sa fonction de supervision, et est en mesure de prendre des actions de régulation le cas échéant », a-t-elle ajouté. (...)
< Les 10 documents précédents | Les 10 documents suivants > |