Flux RSS

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

108538 documents trouvés, affichage des résultats 6141 à 6150.

< Les 10 documents précédentsLes 10 documents suivants >


(29/10/2010 16:20:02)

CA renforce son portefeuille d'outils d'automatisation

Si quatre de ces outils sont des mises à jour des solutions Automation déclinées en Workload, Virtual, Server et Client de CA, deux autres - Process et Configuration Automation - sont nouveaux. Les produits sont accessibles séparément, de manière à laisser aux entreprises la possibilité de réaliser des déploiements à la carte et à leur rythme, quitte à ajouter d'autres fonctionnalités par la suite. CA propose aussi trois formules sous forme de kits d'outils préintégrés.

A mesure que les entreprises augmentent leurs déploiements en matière de virtualisation et ajoutent des solutions cloud à leurs configurations, les équipes de management doivent affronter de nouveaux défis et les équipes informatiques sont sous pression en vue de l'automatisation des processus. « Les activités traditionnelles comme l'allocation serveur, la gestion et le suivi des performances, deviennent plus complexes dans des environnements virtualisés et de cloud, » explique Mary Johnston Turner, directrice de recherche pour les logiciels de gestion système chez IDC. « Les solutions d'allocation automatisée sont nécessaires pour aider les équipes IT à relever ces enjeux,»  souligne encore Mary Turner. « La suite CA Automation vise à répondre à plusieurs de ces exigences, tout en offrant aux clients des options pour une mise en oeuvre modulaire. »

Le service Process Automation permet de rationnaliser certains processus à travers des plates-formes, des applications et des groupes. Le logiciel comprend plus de 50 types de procédures prédéfinies, dont certaines développées par CA et d'autres par des vendeurs tiers comme IBM, BMC, Microsoft et VMware. Quant à Configuration Automation, qui effectue l'inventaire de l'environnement informatique, il comprend 1 000 modèles. « L'automatisation de la configuration des systèmes informatiques peut conduire à une plus grande standardisation des services, ce qui peut en retour aider les entreprises à réduire les temps d'interruption et à mieux respecter les politiques réglementaires et de sécurité, » explique CA.

A l'unité ou en package


Le module Workload, qui contrôle la répartition des charges de travail, peut être hébergé et géré à partir de plates-formes mainframe et distribuées. Elément nouveau, il permet désormais de planifier la charge de travail dans les clouds publics de type Amazon EC2, et de gérer les flux mixtes pour les ressources virtualisées. Sur le plan des infrastructures, Virtual Automation offre la capacité, grâce à un système intégré de réservation, « d'effectuer l'attribution de serveur virtuel en libre-service et de manière automatisé, » explique l'éditeur. Les fonctionnalités incluent le support de l'hyperviseur Hyper-V de Microsoft et de VPC d'Amazon. Server Automation gère le provisionnement, l'application de correctifs et le déploiement des applications et des services à travers les systèmes physiques et virtuels, en utilisant des modèles standards. Enfin, Client Automation (anciennement connu sous le nom de IT Client Manager) automatise les tâches de gestion client, notamment les hyperviseurs de type Bare Metal, la gestion des correctifs, les migrations de Windows 7. « Les nouvelles fonctionnalités incluent la gestion VMware VDI (Virtual Desktop Infrastructure) et des options de reporting avancées, » indique CA.

Pour les plus pressés, l'éditeur propose aussi des packages de services. Par exemple, Automation Suite for Hybrid Clouds comprend les outils à destination des environnements cloud privé et public. Il se compose de trois modules - Process, Server et Virtual Automation, ainsi que du logiciel Service Catalog.

Automation Suite for Data Centers, quant à lui, est destiné aux sociétés qui doivent gérer une infrastructure physique et virtuelle intégrée et démarrent dans le cloud computing. Le bundle, connu sous le nom de CA Spectrum Automation Manager, comprend pour sa part quatre modules: Configuration, Process, Server et Virtual Automation.

Le dernier bundle d'outils pré-intégrés, CA Automation Suite for Cisco UCS, offre les mêmes modules que ceux présents sont dans le pack Data Centers mais avec en plus des outils pour la fourniture et la migration des serveurs vers la plate-forme de l'équipementier américain.

(...)

(29/10/2010 16:13:47)

Trimestriels Dassault Systèmes : L'éditeur relève ses prévisions annuelles

Dassault Systèmes a enregistré une progression de 43,5% de ses revenus de licences et de maintenance au troisième trimestre 2010, à 366,7 millions d'euros (à taux de change courant*). Les ventes de logiciels ont à elles seules augmenté de 63,7% à 96,6 millions d'euros. En incluant les services, le chiffre d'affaires total du premier éditeur français, spécialiste des solutions de conception 3D et de gestion du cycle de vie des produits (PLM), s'est élevé à 403,6 millions d'euros, entre juillet et septembre, soit une progression de 38% à taux de change courant (30% à taux de change constant).

Bernard Charlès, PDG de la société, a indiqué que la version 6 de la plateforme collaborative de DS avait gagné de nouvelles références clients, parmi lesquels Bell Helicopter. Ce dernier a sélectionné Enovia v6 et a décidé d'étendre son utilisation des produits DS à Simulia, Delmia, 3DVia. Ce client passe également à la version 6 de Catia.

Plateforme PLM 2.0 : coopération renforcée avec EADS


Sur neuf mois, le chiffre d'affaires de Dassault Systèmes a atteint 1,1 milliard d'euros (+20,7%) et le bénéfice net de la société s'élève à 141,9 millions d'euros (+52,9%). Après une année difficile en 2009, l'activité du groupe français est repartie depuis janvier et les performances de ce troisième trimestre permettent à l'éditeur de réviser à la hausse de deux points ses prévisions de croissance pour 2010, entre 18 et 19%, à taux de change constant. La société vise une marge opérationnelle de 27 à 28% sur l'exercice.

Dassault Systèmes vient par ailleurs d'annoncer le renforcement de sa coopération avec EADS autour de sa plateforme PLM 2.0 et de son portefeuille d'applications V6 dans le cadre de l'initiative Phenix PLM Harmonization Center (PHC) mise sur pied par le groupe aéronautique.

(*) A taux de change constant, les ventes de licences et les revenus de la maintenance ont progressé de 54% et 32%

Illustration (crédit : Dassault Systèmes) (...)

(29/10/2010 15:44:58)

Trimestriels Microsoft : Des ventes solides sur les fondamentaux

Les ventes robustes de Windows 7, Office 2010 et des consoles Xbox 360 ont propulsé le bénéfice net de Microsoft à 5,41 milliards de dollars pour son premier trimestre fiscal de 2011, soit une augmentation de 51% par rapport à la même période un an auparavant. La société a également signalé une progression de 25% du chiffre d'affaires pour ce trimestre, à 16,20 milliards de dollars. Ce chiffre dépasse ce que de nombreux analystes avaient prévu: en s'attendant à des revenus de 15,80 milliards de dollars.

Globalement, les ventes de la suite Office ont augmenté de 15% , grâce à la version 2010 dévoilée en juin dernier. La console Xbox 360 voit ses ventes progresser de 38% et la société note également que le cycle de mise à jour des PC vers Windows 7 continue à soutenir la commercialisation de ce dernier.  « Nous constatons une amélioration de la demande des entreprises reflétant leur intérêt sur Windows 7, Office 2010, et nos produits serveur et base de données", a déclaré Kevin Turner, du DG de Microsoft, dans un communiqué.

Cloud et tablette

La bonne performance de ce trimestre est en contraste avec la méfiance accrue des investisseurs qui critique la stratégie de Microsoft de ne pas s'impliquer dans les technologies en dehors des ordinateurs personnels, comme les smartphones et les tablettes. Lors de la conférence Professional Developers cette semaine à Seattle, Steve Ballmer a exprimé son enthousiasme pour le les efforts  menés autour des smartphones. Peter Klein, le directeur financier de la firme de Redmond, croit beaucoup dans les services de cloud computing comme une source importante de croissance, citant un récent contrat gagné avec l'Etat de New York. « Ces victoires dans le cloud nous ouvrent de grands potentiels économiques. Dans de nombreux cas, il s'agit de nouveaux clients », a déclaré Peter Klein. Il a également noté que les réservations pour Azure ont augmenté de 40 % rapport au trimestre précédent.

L'intégration de windows pour les tablettes peut se révéler un autre domaine de croissance pour l'entreprise. «Nous sommes convaincus que ces terminaux élargiront le marché des PC et nous sommes enthousiastes quant à notre possibilité de mettre notre OS sur des facteurs de formes supplémentaire » précise le responsable financier. Par contre, il ne pense pas que les ventes de tablettes cannibaliseront celles de PC. Il prévoit aussi que le marché entreprise continuera à être un moteur pour le reste de l'exercice fiscal. « Nous nous attendons à ce que les achats de PC et de serveurs de rester une grande priorité pour la plupart des entreprises » conclut-il.

(...)

(29/10/2010 14:53:52)

Apple entre dans le Top 5 des fabricants de mobile

Entre juillet et septembre, l'entreprise de Cupertino a gagné 4,3 % du marché mondial du téléphone portable avec 14,1 millions d'unités vendues, soit quasiment le double par rapport à la même période en 2009. Nokia reste toujours le leader du classement général avec 110,4 millions d'unités vendues, suivi de Samsung avec 71,4 millions, LG Electronics s'affichant au troisième avec 28,4 millions d'unités. « LG a perdu du terrain en raison d'un maigre calendrier de sortie de smartphones, tandis que Nokia a subi la pénurie en composants qui l'a obligé à limiter le volume de ses appareils d'entrée de gamme, perdant une capacité de plusieurs millions d'unités, » a déclaré Neil Mawston, directeur de Strategy Analytics, dans un communiqué. Celui-ci fait également remarquer que l'écart entre Nokia et Samsung n'a jamais été aussi proche au cours d'un troisième trimestre. Quant à BlackBerry Research in Motion, le fabriquant a été repoussé à la cinquième place du fait de la forte progression d'Apple, ne pouvant opposer que 12,4 millions d'unités vendues pendant la période. Au total, selon une estimation faite par Strategy Analytics, il s'est vendu 327 millions de téléphones mobiles dans le monde au cours du troisième trimestre 2010.

Le CEO d'Apple très confiant pour l'avenir

Lors d'une récente conférence téléphonique entre le CEO d'Apple, Steve Jobs, et les analystes, celui-ci a dit qu'il ne voyait pas RIM repasser devant Apple au cours des prochains trimestres. «Nous sommes désormais devant RIM, et je ne les vois pas nous rattraper dans un avenir prévisible,» a déclaré Steve Jobs. « Ils doivent sortir du domaine confortable dans lequel ils se trouvent, pour s'aventurer vers les territoires inconnues où se trouvent des entreprises qui veulent devenir une plate-forme logicielle. »

La croissance d'Apple provient en partie du lancement de l'iPhone 4, commercialisé aux États-Unis, au Royaume-Uni, en France, en Allemagne et au Japon une semaine avant le début du trimestre de référence. Au cours des trois mois qui ont suivi, l'iPhone 4 a été déployé dans une grande partie du monde, pour finalement atteindre la Chine le 25 septembre, peu avant la fin du trimestre. La version précédente du smartphone d'Apple, l'iPhone 3G, est toujours en vente et soutient les volumes livrés par d'Apple. « La place de RIM au Top 5 est mise en danger par une poignée d'entreprises, » a déclaré Strategy Analytics. « Un grand nombre d'acteurs de second niveau se rapprochent du classement, comme Sony Ericsson, dans le Top 5 jusqu'à récemment, ZTE, Motorola, Huawei et Alcatel. »

(...)

(29/10/2010 14:22:56)

PDC 2010 : Windows Azure ressemble un peu plus à Amazon EC2

C'est une avancée notable que Microsoft propose sur sa plateforme de cloud Windows Azure en permettant d'y installer des machines virtuelles Windows Server. Cela rend théoriquement possible le portage vers cet environnement d'applications exploitées en interne et sur d'autres datacenters. Microsoft élargit donc sa palette de services dans le cloud face à un concurrent tel qu'Amazon qui propose depuis l'origine des services d'infrastructure avec sa plateforme EC2 (Elastic Compute Cloud).

Steve Ballmer (photo ci-dessus), PDG de l'éditeur, vient d'en faire l'annonce sur sa conférence développeurs PDC qui a démarré hier sur le campus de Redmond, où se trouve le siège social du groupe américain. Parmi les fonctions ainsi apportées figurent Azure Virtual Machine Role et Server Application Virtualization. Le premier outil permet de faire tourner une machine virtuelle de Windows Server 2008 R2 sur Azure et de faciliter ainsi aux développeurs les processus de migration vers le cloud. Une version bêta publique du produit sera disponible d'ici la fin de l'année. L'autre solution servira à transférer des images d'application vers Azure et à faciliter la migration sans exiger de réécriture ni les associer à une machine virtuelle. On peut créer une image virtuelle d'un serveur physique et la transférer sur Windows Azure, explique Bernard Ourghanlian, directeur technique de Microsoft France. Cette possibilité est pour l'instant limitée à Windows Server 2008 R2, mais il n'est pas exclu que d'autres versions de Windows soient ensuite supportées, en remontant jusqu'à Windows Server 2003. En revanche, il n'est pas envisagé de supporter d'autres systèmes d'exploitation tel qu'Amazon le fait sur EC2 avec Linux et Solaris.

A partir de 0,05 dollar de l'heure

Une fois que l'application est déployée sur Azure, les clients disposent automatiquement des capacités d'administration de la plateforme de cloud, ce qui inclut la configuration automatique et la gestion de l'OS utilisé. Server Application Virtualization pour Azure sera livré sous la forme d'une version CTP (community technology preview) avant fin 2010 et la version finale arrivera au deuxième semestre 2011.

Avec la prochaine version de System Center, qui devrait sortir avant fin 2011, on pourra administrer de façon centralisée les machines virtuelles sur des serveurs locaux et celles fonctionnant sur Azure.

Les développeurs peuvent désormais choisir entre cinq tailles d'instances de machine virtuelle pour faire tourner leur application en fonction des ressources requises. Microsoft vient en effet d'ajouter à sa tarification l'instance Extra Small, facturée à 5 cents de dollar l'heure. A ce prix, on dispose d'un processeur à 1 GHz, de768 Mo de mémoire et de 20 Go de capacités de stockage. Un tarif attractif pour ceux qui veulent pouvoir tester de petites applications dans le cloud. L'instance la plus robuste (Extra Large) permet de disposer de huit processeurs à 1,6 GHz, de 14 Go de mémoire, de 2 Go de stockage pour 0,96 dollar de l'heure. Les performances d'entrée/sortie diffèrent sensiblement : faible pour l'offre Extra Small, élevée pour l'Extra Large.
De son côté, Amazon va proposer un accès gratuit à EC2 à partir de la semaine prochaine.

Microsoft voit une convergence des offres cloud, Amazon non

En juin dernier, Microsoft avait promis qu'il offrirait la capacité d'exploiter des machines virtuelles, proposant ainsi des services se rapprochant de ceux d'Amazon, ce dernier permettant d'exploiter sur EC2 différentes machines virtuelles sous Windows et Linux.

Sur le marché du cloud computing, on distingue actuellement, d'une part, les fournisseurs de services d'infrastructure (IaaS) comme Amazon qui propose avec EC2 un accès « brut » aux instances de machines virtuelles. On trouve d'autre part des plateformes comme Azure qui offrent des outils aux développeurs mais donnent un accès moindre à l'infrastructure sous-jacente. Selon Microsoft, ces deux types d'environnement vont commencer à se ressembler et l'annonce de machines virtuelles Windows Server sur Azure est l'une des étapes qui y conduit. Pourtant, Amazon a prévenu qu'il ne prévoyait pas d'évoluer vers les environnements PaaS, en avançant comme raison le fait que ses clients lui ont clairement indiqué qu'ils voulaient continuer à bâtir leurs applications sans se voir imposer de modèle de programmation, de langage ou de systèmes d'exploitation, quels qu'ils soient.

Microsoft a également lancé AppFabric Composition Model pour Azure, un jeu d'extensions au framework .Net pour écrire des applications qui puissent être exploitées de façon cohérente entre l'environnement Azure et les plateformes Windows Server.
[[page]]
Sur sa conférence PDC, l'éditeur a par ailleurs annoncé l'ouverture de la place de marché Windows Azure DataMarket (ancien projet Dallas) qui propose, sous forme de services, l'accès à des contenus et à des données. Les développeurs pourront se servir des interfaces de programmation (API) OData exposées par DataMarket pour exploiter dans des applications les données mises à disposition sur la place de marché.
DataMarket
La place de marché DataMarket

Dans les entreprises, les utilisateurs intervenant sur des applications décisionnelles pourront combiner l'exploitation d'Excel et d'un outil comme PowerPivot avec l'accès à DataMarket et associer les données de l'entreprise avec des bases de données statistiques (professionnelles, industrielles, démographiques, etc.).

Illustration d'ouverture : Steve Ballmer, PDG de Microsoft, le 28 octobre à l'ouverture de la conférence développeurs PDC, sur le campus de Redmond (crédit photo : vidéo Microsoft)

Avec la prochaine version de System Center on pourra administrer de façon centralisée les machines virtuelles sur des serveurs locaux et celles fonctionnant sur Azure avant fin 2011.
(...)

(29/10/2010 11:31:52)

Affaire TomorrowNow : SAP plaide coupable, Oracle réclame 2 milliards de dollars

Oracle estime qu'il s'agit d'un aveu de culpabilité, tandis que le défendeur souhaite limiter la portée d'un procès qui devient un «cirque médiatique». Car  SAP estime que « ce procès est axé non pas sur les questions en litige, mais en réalité sur l'obsession d'Oracle et de son fondateur, Larry Ellison, sur Hewlett-Packard et celui qui le dirige. »

La récente annonce supprime effectivement l'un des arguments de la défense - ses dirigeants ne savaient pas que TomorrowNow avait volé les mises à jour Oracle. Elle pourrait aussi réduire la probabilité de convocation des dirigeants de SAP, selon un observateur juridique. De son côté, Oracle a demandé le report du procès au 4 novembre, car ce retournement  implique une révision de la défense. L'éditeur de Redmond accuse SAP et sa filiale TomorrowNow d'avoir volé des milliers de corrections et autres documents de support sur un site web d'Oracle et de les utiliser pour fournir un service de maintenance à prix réduit pour les clients du spécialiste de la base de données.

Oracle a indiqué avoir reçu mercredi soir une lettre des avocats de SAP pour l'informer que le groupe de Walldorf «ne contestera pas la créance pour complicité de contrefaçon», et qu'il demandera au tribunal de réduire de moitié la durée du procès, limitant ainsi le potentiel de la publicité négative pour SAP. « Pendant trois ans et demi de procédure, l'éditeur allemand a nié  le vol massif de la propriété intellectuelle d'Oracle », a déclaré ce dernier dans un communiqué aux journalistes. « Aujourd'hui, SAP a finalement avoué qu'il savait depuis longtemps. »

La question des dommages et intérêts au coeur du débat


SAP a déjà admis que TomorrowNow avait volé de la documentation sur les logiciels sur le site Web d'Oracle, mais a fermé depuis cette société. Cependant, l'éditeur d'ERP a maintenu que les dirigeants ne savaient rien de cette affaire. Oracle avait dit qu'il pourrait présenter des preuves démontrant que ce n'est pas le cas.

« SAP peut encore prétendre au procès, comme il l'avait prévu, et défendre qu'Oracle n'a pas subi des pertes importantes par rapport aux activités de TomorrowNow », a déclaré Steve Chang, un avocat et principal actionnaire avec le cabinet juridique IP Banner & Witcoff, et d'ajouter « Cela ne signifie pas une victoire automatique sur la question des dommages-intérêts ».  Mais en endossant une partie de la culpabilité,  en plus de celle TomorrowNow, SAP risque de voir le procès se focaliser sur ses bénéfices, au lieu de ceux de son ancienne division. C'est ce qu'Oracle cherche à prouver à travers ses demandes de dommages-intérêts », souligne le juriste. Le spécialiste des bases de données réclame en effet une réparation à hauteur de 2 milliards de dollars, tandis que SAP l'évalue à une dizaine de millions de dollars.

Tout le débat va donc se porter sur les qualités des preuves apportées, comme l'indiquent les avocats d'Oracle « en raison de la nature de la preuve du préjudice,  tous les éléments sont importants en matière de responsabilité, mais également pertinents pour évaluer les dommages et intérêts. » (...)

(29/10/2010 11:32:32)

L'Arcep affiche toujours un optimisme forcené sur la fibre optique

(Source EuroTMT) Volontiers optimiste, Jean-Ludovic Silicani, le président de l'Arcep, l'autorité de régulation des télécoms, estime qu'il faudra 12 milliards d'euros d'argent public, sur une facture globale de 25 milliards, pour financer le développement du FTTH en France sur quinze ans. Ce qui représenterait, selon lui, une charge de seulement 4 millions d'euros par an et par département. Ce qu'il juge parfaitement supportable. Oui mais voilà, Jean-Ludovic Silicani suppose que les opérateurs privés vont dépenser quelque 12 à 13 milliards. Ce qui est loin d'être acquis. Pour le moment, les projets cumulés des trois opérateurs privés, France Télécom, SFR et Iliad, aboutissent à un investissement d'environ 4 milliards pour couvrir 40% des foyers d'ici à 2015. 
Il leur faudrait donc débourser 8 à 9 milliards supplémentaires, pour les zones moins denses. Ce qui paraît difficile à croire, les opérateurs privés, à l'exception de France Télécom, étant très réticents à investir dans les zones où la rentabilité n'est pas assurée.

Les collectivités prennent en mains le déploiement de la fibre

Ceci dit, pendant que les opérateurs se chamaillent à propos du cadre réglementaire, des collectivités territoriales investissent déjà dans la fibre optique. Selon l'Avicca (l'Association des villes et des collectivités pour les communications électroniques et l'audiovisuel), 29 projets étaient déjà lancés à la fin de juillet portant sur plus de 1,6 million de prises à très haut débit. Pour autant, ces projets demeurent risqués. Par exemple, Manche Numérique, l'un des pionniers, n'a ainsi aucun client parmi les opérateurs privés.

Photo :  Jean-Ludovic Silicani, le président de l'Arcep (D.R.)

(...)

(29/10/2010 11:32:35)

L'Europe toujours à la traine pour la fibre optique

(Source EuroTMT) La cause de la fibre optique n'avance pas ou peu en Europe. Le FTTH Council Europe réalise pourtant un intense lobbying. Il multiplie les interventions pour plaider la cause de la fibre optique et vanter ses nombreux avantages supposés. Il liste ainsi : le soutien de la croissance économique, les économies d'énergie, une meilleure expérience pour les abonnés,  le développement de nouveaux services. Or, le constat ne change toujours pas. Avec ses 4,5 millions d'abonnés FTTH/B, le continent européen (Russie comprise) fait pâle figure face aux 43 millions d'abonnés en Asie ou aux 8,6 millions de clients en Amérique du Nord. 

Profitant de la tenue à Paris du Broad-band World Forum, le FTTH Council Europe, en partenariat avec l'institut Idate, a présenté ses dernières statistiques à la fin juin 2010. Et la conclusion s'impose d'elle-même : il ne se passe pas grand-chose de nouveau. On relève cependant la volonté des pays de l'Est de l'Europe de sauter l'étape du DSL. Sur cette technologie, la plupart d'entre eux sont assez en retard. Ils développent donc directement les accès à très haut débit. Résultat, sur les dix premiers marchés européens pour le FTTH/B, les pays de l'Est trustent cinq places, dont la première soufflée à la Suède par la petite Lituanie, qui enregistre un taux de pénétration du très haut débit de 21%. 

L'Allemagne et la Grande-Bretagne toujours en dessous de 1%

Si les trois pays suivants (Suède, Norvège, Slovénie) affichent aussi des taux de pénétration supérieurs à 10 %, ce taux s'effondre rapidement. Sur les 36 pays que compte l'Europe, le classement, fondé sur les pays affichant un taux de pénétration supérieur à 1 %, n'en retient que 17. Si l'Italie et la France arrivent à être classées (respectivement à la 14ème et à la 15ème place), d'autres grands pays européens manquent à l'appel : la Grande-Bretagne, l'Allemagne et l'Espagne n'ont toujours pas atteint ce niveau symbolique de 1% ! 

Le FTTH Council Europe veut cependant trouver dans cette étude des raisons d'espérer un avenir radieux. Il est vrai que si le marché côté consommateurs ne décolle pas véritablement, l'équipement des immeubles en accès FTTH/B progresse réellement. On dénombre plus de 26 millions de foyers qui sont maintenant connectés aux réseaux en fibre optique. Logiquement, cette croissance du nombre de logements équipés devrait finir par se traduire par une accélération significative de la croissance du nombre d'abonnés. Les opérateurs alternatifs qui, dans de nombreux pays, se montrent très actifs, y ont tout intérêt pour rentabiliser leurs investissements et prendre des parts de marché aux opérateurs historiques. 

La concurrence tire toujours le marché

Pour le FTTH Council Europe et l'Idate, c'est d'ailleurs le renforcement de la concurrence qui va contraindre les opérateurs historiques à sortir de leur attentisme afin de réagir aux opérateurs  alternatifs ou aux câblo-opérateurs. Ce qui se confirme dans quelques rares pays. Au Portugal, Portugal Telecom doit réagir à la rude concurrence de son ancienne filiale Zon Multimedia. En France, France Telecom, depuis le changement de directeur général, tient un discours bien plus offensif sur la fibre optique. Les prochaines études semestrielles permettront de savoir si l'éternel optimisme du FTTH Council était fondé.

Crédit photo : D.R.

(...)

(29/10/2010 11:32:29)

Un inspecteur des finances devient patron de l'informatique de la Caisse des Dépôts

Le 1er septembre 2010, Maurice Sissoko, 44 ans, a remplacé Jean-Jacques Delaporte comme directeur général d'Informatique CDC, la DSI filialisée du groupe Caisse des Dépôts et Consignations (CDC). Informatique CDC assure la maîtrise d'oeuvre de l'essentiel des SI du groupe, avec un rôle particulièrement important dans les stratégies de dématérialisation qui sont au coeur de l'activité de filiales comme CDC Arkhinéo (archivage sécurisé) et CDC Fast (transmissions certifiées). Son effectif est de 1100 personnes.

Jean-Jacques Delaporte, 62 ans, énarque, est devenu conseiller du directeur général de la Caisse des Dépôts et Consignations. Il a effectué toute sa carrière au sein du groupe, de ses filiales et de son partenaire historique les Caisses d'Epargne, notamment à des postes financiers ou dans des structures financières. Il était devenu DSI de CDC Ixis en 2000 lors de la création de cette entité mais, en 2002, il était devenu directeur des services bancaires et titres de la même société. Il était revenu à l'informatique en 2004 en prenant son poste de directeur général d'Informatique CDC.

Un DSI formé à l'ENI

Comme son prédécesseur, Maurice Sissoko n'est pas un informaticien de formation. Issu de l'administration des impôts, il est diplômé de l'Ecole Nationale des Impôts. Après une carrière classique bien qu'au déroulé particulièrement rapide, il est devenu en 2001 inspecteur des finances. Il a notamment une expérience de la lutte contre la fraude fiscale dans le secteur financier. Il a intégré le groupe Caisse des Dépôts en 2005, en tant que directeur des prêts et de l'habitat à la direction des fonds d'épargne.

En 2008, il était devenu directeur du pôle service d'Icade, la filiale immobilière de la Caisse des Dépôts. A seulement 44 ans, il devient donc directeur général d'une DSI groupe filialisée d'un ensemble d'entités totalisant plus de 71 000 salariés et consolidant environ 2 milliards d'euros de bénéfices annuels et 19 milliards d'euros de fonds propres.

Crédit photo : D.R.
(...)

(22/10/2010 16:06:22)

Conférence LMI/CIO : Innovations et défis 2011 de la DSI

Des compagnies d'assurances mobilisent la géo-localisation et le dialogue de machine à machine (M2M) pour créer des formules inédites d'assurance automobile. Les distributeurs d'eau ou d'électricité s'appuient sur les smart grid et les compteurs intelligents afin d'instaurer des usages et des modèles de tarification qui rentabiliseront mieux leurs réseaux.

Pour se renouveler, l'entreprise doit non seulement identifier ces nouvelles approches, mais aussi améliorer sa capacité à les mettre en oeuvre rapidement et efficacement. En première ligne, la DSI constitue le levier d'action de la direction générale et des métiers. Pour assumer ses responsabilités, elle sera amenée à opter pour de nouveaux modes de fonctionnement et à repenser ses relations avec les métiers.

La DSI doit délivrer rapidement les ressources et les applicatifs demandés avec la qualité de service attendue. Elle peut s'appuyer sur des offres packagées récentes telles que le SaaS ou le cloud computing accompagnées de nouvelles approches comme les méthodes agiles ou l'optimisation par le Lean. Sans oublier de tirer le meilleur parti de la convergence entre les réseaux informatiques, le stockage et la téléphonie - fixe et mobile -, la vidéoconférence en mode téléprésence tout en s'arcboutant sur des serveurs surpuissants au nombre de coeurs démultiplié qui devront être exploités au mieux par les applications critiques.

Venez discuter avec vos pairs le 23 novembre prochain

Pour discuter de ces thèmes, nous vous invitons à une matinée sur l'innovation et les défis de la DSI le mardi 23 novembre au pavillon Dauphine à Paris dans le 16e arrondissement.

Vous pourrez ainsi réfléchir aux avantages de la « Blue Ocean Strategy », aux moyens de transformer l'innovation IT en atout concurrentiel et de cultivez l'innovation IT avec des experts comme Jean-François Caenen, directeur de l'innovation chez Capgemini, des  témoignages de DSI et des tables rondes avec notamment : Christophe Bardet, directeur central marketing & développement de MMA, Patrick Hereng, DSI du groupe Total, Eric Legal, directeur d'Issy Media, Jean-Claude Saussaye, DSI de MMA, et Frédéric Tapissier, responsable études et développements à la direction des réseaux, de l'innovation et des nouvelles technologies de TF1.

Pour découvrir le programme détaillé et vous inscrire à cette conférence organisée par Le Monde Informatique et CIO cliquer sur ce lien.

(...)

< Les 10 documents précédentsLes 10 documents suivants >