Flux RSS
108538 documents trouvés, affichage des résultats 7851 à 7860.
| < Les 10 documents précédents | Les 10 documents suivants > |
(31/05/2010 15:25:30)
Open recherche une cinquantaine de collaborateurs en Nord-Est
Groupe Open poursuit le rythme de ses recrutements en région. Après Rhône-Alpes, la SSII prévoit d'intégrer plus de 50 nouveaux collaborateurs dans le grand Nord-Est. Les postes à pourvoir sont variés : il s'agit de directeurs et de chefs de projets, d'architectes en systèmes d'information et NTIC, de concepteurs fonctionnels, d'assistants à la maîtrise d'ouvrage, d'ingénieurs d'études/concepteurs, d'ingénieurs nouvelles technologies (Java/J2EE, .net, PHP et applications telles que Liferay et Alfresco...) et technologies traditionnelles (mainframe IBM, AS/400, client/serveur...).
Open Nord s'appuie déjà sur l'expertise de quelque 250 collaborateurs intervenant sur ces domaines. Dans cette région, le groupe, qui dispose d'un centre de services sur le site de Lambersart, développe, depuis plusieurs années, une culture axée sur les dossiers à engagement de résultats (tierce maintenance applicative, forfaits).
Pour sa part, Open Est (150 salariés) opère sur des projets de développement de portails internet, de conception de solutions Web, de création, de maintenance et d'évolution de solutions applicatives en centres de services (monétique, titres, banques à distance). Le groupe intervient dans les bassins d'activités de Belfort, Mulhouse, Strasbourg, Metz, Nancy et Luxembourg. Pour soutenir sa campagne de recrutement, Open participera au salon de l'emploi Moovijob, le 28 mai prochain, à Metz, le 25 juin à Strasbourg, le 10 septembre à Mulhouse, et le 17 septembre à Nancy.
Comme IBM, Pentaho choisit Hadoop pour l'analyse des gros volumes de données
L'éditeur de logiciels décisionnels en Open Source Pentaho a indiqué qu'il prévoyait de livrer une suite décisionnelle complète s'appuyant sur le projet Apache Hadoop. IBM a lui-même confirmé la semaine dernière qu'il préparait un portefeuille de solutions et de services, Infosphere BigInsights, basé sur ce même projet Open Source conçu pour le traitement et l'analyse de très gros volumes de données. Les capacités apportées par Hadoop sont destinées à prendre en charge les flux de données considérables générés par exemple par les transactions bancaires et dans le secteur de l'assurance (avec l'objectif de détecter les fraudes), par les interactions sur Internet (sur les réseaux sociaux notamment) ou encore traités par les centres d'appels.
La suite Pentaho BI va d'abord fournir, pour les processus d'intégration de données, un environnement de conception visuel qui inclura la manipulation de fichiers Apache Hadoop. Cela permettra de concevoir et d'exécuter des processus ETL qui pourront impliquer à la fois des tâches Hadoop et non-Hadoop. A la suite de cette première brique, l'éditeur prévoit de livrer d'autres modules pour effectuer du reporting, des tableaux de bord et des analyses directement sur les données stockées sur un modèle Hadoop.
Pentaho propose aux entreprises intéressées de faire partie de son programme bêta.
Illustration : démo de Pentaho Enterprise intégré avec Hadoop
Dell montre le premier produit issu du rachat de Kace
Le produit offre une approche spécifique pour configurer et améliorer les réglages de puissance sur des machines tournant sous Windows et Mac OS X, y compris des fonctionnalités d'assistance centralisée et un bilan sur les économies d'énergie obtenues. Selon Rob Meinhardt, président de Dell KACE, l'un des atouts du K1000 vient de ce qu'il a été spécialement conçu pour les petites entreprises. « Nous avons porté toute notre attention aux informaticiens généralistes, ceux qui endossent plusieurs casquettes, plutôt qu'aux spécialistes. » Ainsi, le groupe s'est employé à fournir un produit facile à installer. « Nous avons adopté une méthode très intuitive de la gestion système, ce qui signifie que notre dispositif est infiniment plus rapide à mettre en oeuvre que ceux de nos concurrents - nous pouvons le rendre opérationnel en quelques heures, » a t-il déclaré.
Le dirigeant, soulignant que la méthodologie ITIL avait beaucoup d'adeptes parmi les clients de Dell KACE, a indiqué que son entreprise avait fait en sorte que la fonctionnalité d'assistance soit compatible avec l'Infrastructure Library (ITIL), très adaptée pour faire face à une variété de situations. « Il y a beaucoup d'idées fausses sur l'ITIL : il est très populaire, en particulier en bout de chaîne ! Nous souhaitons clairement attirer des clients intéressés par ce référentiel. L'autre jour, j'ai parlé à un client dont le service informatique est passé de deux à environ quinze personnes, typiquement le genre de configuration où l'ITIL s'avère d'une aide précieuse. C'est pourquoi il était important que la compatibilité avec notre produit soit assurée. »
Une perception pragmatique du référentiel ITIL
Selon cette analyse internationale, le référentiel de bonnes pratiques ITIL poursuit son déploiement en entreprises. La version 3, notamment, est aujourd'hui de plus en plus déployée (8% l'ont effectivement fait, 73% l'envisageant ou étant en cours de le faire) pour couvrir certains besoins mal ou pas traités par la version précédente comme la gestion des contrats de niveaux de services (SLA) ou la construction d'un catalogue d'offres de services.
D'ailleurs, l'apport essentiel d'ITIL qui motive son déploiement est clairement l'amélioration de la qualité de service (79% des réponses). Les deux tiers des répondants estiment que les objectifs propres de la DSI sont servis par les démarches liées au déploiement d'ITIL, à l'exception de la démarche d'innovation (80% des réponses rejetant la corrélation).
Retour sur investissement délicat à calculer
Malgré tout, évaluer le retour sur investissement de la mise en place d'ITIL reste difficile. Une telle difficulté est délicate à gérer en période de crise. Le budget consacré au déploiement d'ITIL reste cependant constant dans 45% des cas, augmentant dans 31% (dont 10% de « fortement ») et ne décroit que dans 14% des cas. Un arrêt d'ITIL ne se constate que chez 3% des répondants.
Du coup, assez logiquement, la durée moyenne d'implication dans ITIL s'accroit, les entreprises y restant fidèles, même si 11% des entreprises ont une ancienneté de moins de un an dans la démarche : elle passe ainsi entre 2008 et 2009 de 2,9 à 3,5 années.
[[page]]
Le principal frein au déploiement d'ITIL n'est pas son absence de retour sur investissement prouvé (31% des réponses - 2 réponses possibles dans une liste) mais la résistance au changement des équipes (49%), suivi du manque de soutien du management intermédiaire (34%).
La DSI, une SSII interne
Cependant, la démarche de catalogage des services prévue dans la démarche ITIL est loin d'être adoptée autant qu'elle devrait. Ainsi, plus du tiers des répondants de l'enquête de Devoteam ont moins de 10% de leurs services qui sont effectivement formalisés dans un catalogue, 11% seulement ont un catalogage presque exhaustif (plus de 90%), un quart ayant environ les trois-quarts de leurs services catalogués.
La définition de niveaux de SLA est également très hétérogène et dans des proportions comparables plutôt moindres. Environ un tiers des répondants ont moins de 10% de SLA formalisés, un autre tiers au plus de 50% et le dernier tiers au moins les trois quarts.
La remise à plat de l'offre au regard des attentes est en général au minimum annuelle (37% des réponses), 17% ayant fait le choix d'une vérification semestrielle, autant une trimestrielle et même 14% une mensuelle. Seulement 15% ne font jamais cette confrontation.
D'abord, une gestion des incidents
ITIL est avant tout implanté pour gérer les incidents : 93% des répondants ont implanté ce chapitre du référentiel ITIL. Le deuxième chapitre déployé concerne la gestion du changement (58%). La gestion des fournisseurs, par contre, n'est employée que dans 7% des entreprises.Théoriquement, ITIL est avant tout un outil d'automatisation des process et d'industrialisation du SI.
Mais les niveaux de maturité ne sont, dans la plupart des cas, pas mesurés du tout (41% des cas) ou épisodiquement (32%). L'automatisation des CMDB/CMS est quasiment exceptionnelle : 45% ne le font quasiment pas, presqu'autant pour moins de la moitié des référentiels. (...)
Forte baisse des ventes de serveurs Unix au 1er trimestre selon IDC
Le segment des serveurs Unix a été particulièrement touché par la récession. Les derniers chiffres sur les parts de marché fournis par IDC montrent que les utilisateurs ont reporté l'achat de nouveaux systèmes Unix. Les dépenses globales de ces derniers mois sont en effet parmi les plus basses jamais enregistrées. Le rapport du cabinet d'analyste souligne que le chiffre d'affaires est tombé à 2,3 milliards de dollars, soit un peu plus de 22% du total des dépenses engagées sur le marché des serveurs au cours du premier trimestre 2010. La part de marché des systèmes Unix est en baisse de 10,5 points par rapport au même trimestre de l'an dernier.
Les serveurs Unix moyen et haut de gamme sont traditionnellement utilisés pour exécuter des missions critiques pour l'entreprise, mais depuis plusieurs années, on assiste à une lente érosion de leur part de marché au profit des solutions x86-64. Plusieurs variantes se partagent encore aujourd'hui le segment, à savoir Solaris, AIX et HP-UX. Le déclin de ces systèmes est particulièrement spectaculaire dans le secteur du calcul intensif. La liste du Top500 des supercalculateurs offre des statistiques détaillées sur les processeurs, l'architecture et les systèmes d'exploitation déployés dans ces machines. L'année dernière, Linux a été l'OS de choix pour 78% des supercomputers du Top500, et même un peu plus lorsque les implémentations spécifiques de Red Hat et de Suse sont ajoutées au total. En comparaison, les solutions Aix d'IBM ne représentent plus que 4,4% des systèmes. Toujours à titre comparatif, Linux ne totalisait que 61% des machines du Top 500 en 2005, tandis que le mieux classé des Unix était HP-UX à près de 15%. La dernière liste du Top 500 sera disponible le lundi 31 mai 2010.
Illustration serveurs HP Integrity, crédit D.R.
[[page]]
Malgré ces derniers chiffres, il est important de noter que les systèmes Unix représentent encore un chiffre d'affaires non négligeable sur le marché des serveurs, et demeurent un élément important des systèmes d'information. Jean Bozman, analyste chez IDC, a cité une combinaison de facteurs expliquant la forte baisse des ventes des machines Unix au premier trimestre. Tout d'abord, souligne-elle, la récession a retardé les ventes de serveurs Unix, qui sont généralement remplacées tous les cinq ou sept ans - plus que la plupart des systèmes x86. Les acheteurs de serveurs Unix ont peut-être également attendu qu'Oracle achève la digestion de Sun Microsystems, en janvier dernier, pour arrêter leurs options d'achat. En outre, l'analyste note que les utilisateurs de solutions Unix attendent également les mises à niveaux de HP, qui a récemment annoncé de nouveaux produits dans sa gamme Integrity, et d'IBM, qui proposera une évolution de ses serveurs un peu plus tard dans l'année. «Ce n'est pas seulement un point, mais plusieurs qui expliquent la baisse des ventes de serveur Unix. L'analyste explique encore qu'il est trop tôt pour dire si ces résultats du premier trimestre indiquent un abandon de la plate-forme Unix.
L'engagement d'Oracle reste la grande inconnue sur ce marché
Selon IDC, dans l'ensemble, le marché mondial des serveurs a augmenté de 4,6% en glissement annuel à 10,4 milliards de dollars au premier trimestre. La semaine dernière, le cabinet Gartner estimait à 6% la croissance de ce marché pour le 1er trimestre avec un chiffre d'affaires global de 10,75 milliards de dollars. Les deux entreprises ont indiqué que les systèmes x86 étaient le principal vecteur de croissance. "Il est vraisemblable que cela va demander un certain temps pour comprendre où va le marché Unix", estime pour sa part Charles King, analyste chez Pund-IT à Hayward, en Californie. Oracle reste «le principal point d'interrogation, bien que la société ait déjà indiqué qu'elle assurerait l'avenir des systèmes Sun Unix UltraSparc. [Oracle] a certes dit qu'il poursuivra le développement de cette plateforme, mais il va nous falloir un certain temps pour comprendre quelle direction la société va prendre » conclut-il.
(...)(31/05/2010 10:44:32)Un plan numérique du territoire 2010-2020
Les ministères regorgent d'instances et d'acronymes qui s'inscrivent pourtant dans une certaine cohérence. En matière d'aménagement numérique du territoire, cette cohérence est orientée par un nouveau plan gouvernemental.
Le 11 mai dernier s'est tenu un CIADT, Comité interministériel d'aménagement et de développement du territoire. Le ministre de l'espace rural et de l'aménagement du territoire, Michel Mercier, souhaite un déploiement du très haut débit, principalement en fibre optique. A partir de là, seraient satisfaits des besoins aussi bien des particuliers (réseaux sociaux, télétravail, e-éducation...) qu'en direction des entreprises (système d'information étendu, relation client...).
Ceci étant posé, Michel Mercier a chargé les préfets de région de définir, d'ici fin 2010, des stratégies de cohérence régionale en matière d'aménagement numérique du territoire. Des projets pilotes devraient être choisis, en liaison avec les collectivités locales et les opérateurs. Ces projets seront financés par le FANT (Fonds d'aménagement numérique du territoire), lui-même créé par la loi de décembre 2009 (sur la réduction de la fracture numérique) et alimenté par le Grand emprunt (qui devait être opérationnel depuis déjà quelques mois).
Ce dispositif devrait permettre de financer quatre projets, trois en téléphonie mobile : la couverture des zones blanches (3 300 communes concernées) d'ici fin 2011, celle des zones grises (*) de téléphonie mobile (d'ici fin 2011), la couverture 3G de 3 600 communes. Un dernier volet prévoit la résorption des zones blanches haut débit, avec le concours des fonds européen : Feader (Fonds européen agricole pour le développement rural) et Feder (Fonds européen de développement régional).
(*) Sont considérées comme zones grises, celles où n'agissent qu'un ou deux opérateurs, donc avec une concurrence très limitée voire inexistante, c'est le cas pour 2% des français et sur 15% du territoire.
Illustration: Crédit Photo CETE de l'Ouest
L'Italie envisage un procèdé original de conversion à la fibre
(Source EuroTMT) « L'Agcom (Autorité de régulation de la communication) est prête à intervenir pour la mise en oeuvre du très haut débit à condition toutefois, que les opérateurs trouvent un terrain d'entente pour créer les conditions favorables à un programme commun. » Une déclaration pompeuse prononcée en début de semaine par le grand patron de l'autorité de régulation des télécommunications italiennes. Durant un point de presse sur le développement de la fibre optique de l'autre côté des Alpes, Corrado Calabro a présenté les résultats d'une étude effectuée par l'Agcom en collaboration avec trois universités transalpines.
Une étude qui, selon le patron de l'autorité de régulation, souligne le fait que la « tendance actuelle est de passer au switch off-, une méthode utilisée au niveau de la télévision avec le passage de l'analogique au numérique ». Cette opération, qui réduit les coûts d'exploitation dans la mesure où le vieux système basé sur un réseau en cuivre est aujourd'hui obsolète, pousserait les utilisateurs à se tourner progressivement vers la fibre optique.
Selon les calculs de l'Agcom, la moitié de la population italienne pourrait être rapidement fibrée, moyennant un investissement supérieur à 13 milliards d'euros. Un chiffre important, d'autant que le gouvernement Berlusconi, qui veut éviter que l'Italie soit contaminée par la crise grecque, vient de mettre en place une cure d'austérité totale.
[[page]]
Du coup, les appels du pied de Corrado Calabro risquent de rester lettre morte. A moins, que l'ensemble des opérateurs trouvent un terrain d'entente qui leur permettrait de signer quelques chèques et de trouver des partenaires privés, l'Etat n'étant pas dans l'immédiat en mesure d'intervenir.
Des simulations et des questions
Pour l'heure, l'Agcom se contente d'effectuer des simulations pour inciter les grands opérateurs italiens à mettre le pied sur l'accélérateur. Des simulations qui prévoient entre autre, la mise en place d'une infrastructure de type FTTH (technologie optique jusqu'à l'abonné en point à point). Dans ce cas de figure, chaque utilisateur aurait sa propre fibre. Avec un réseau de couverture touchant au départ 50 % de la population et 100 % de la clientèle business, l'étude prend en compte les coûts des abonnements.
Deux solutions ont été envisagées. Avec 20 % de l'Italie fibrée, le prix de l'abonnement serait de 17,49 € par mois pour les utilisateurs. Un coût qui chute à 13,18 € dans la mesure où la couverture couvrirait 50 % du réseau potentiel. En ce qui concerne en revanche, l'Arpu, l'Agcom estime que la couverture de la moitié du pays, implique une valeur de 29,77 € par mois.
Quant à l'impact du très haut débit sur le développement économique de la péninsule, les avantages sont évidents selon le grand patron de l'Agcom comme du côté de la confédération des industriels qui suivent attentivement le débat. « Notre étude démontre que les retombées sur le PIB de la mise en oeuvre du très haut débit sont équivalentes à 17,4 milliards d'euros sur 10 ans avec notamment un impact réel sur l'emploi grâce à la création de quelques 300 000 postes » affirme Corrado Calabro. Il ajoute aussi que les effets indirects sur l'économie italienne en général, sont estimés entre 50 et 420 milliards d'euros. La fourchette est plutôt large.
Reste toutefois deux sacs de noeuds plutôt épais. D'abord, la participation indispensable de Telecom Italia, propriétaire du réseau en cuivre, qui traîne les pieds pour des raisons purement économiques. Puis, tout devrait passer par l'Agcom qui deviendrait en somme une sorte de contrôleur permanent. Ce que les opérateurs pourraient difficilement accepter. En somme, la messe n'est pas encore dite. (...)
Un rebond des ventes des commutateurs Ethernet
Dans son étude trimestrielle, le cabinet IDC montre une croissance qualifiée « d'exceptionnelle » sur le marché des commutateurs Ethernet. Elle atteint 35,3%, elle est de 15,1% pour les routeurs, un segment de marché qui a connu quatre trimestres consécutifs de baisse. Des chiffres d'autant plus exceptionnels que traditionnellement ce marché est saisonnier. La performance du Q1 2010 est donc remarquable, elle traduit une forte demande du marché, dans toutes les régions du monde et sur tous les segments du marché.
L'étude souligne que la croissance de la commutation Ethernet est due : à celle de la voix et de la vidéo sur IP, aux projets en entreprise basés sur le réseau, aux dispositifs connectés réseau, à la virtualisation et au cloud. Mention spéciale au segment des commutateurs 10 Gigabit Ethernet qui a progressé de 111,2% entre le 1er trimestre 2009 et le 1er trimestre 2010, il dépasse pour la première fois la barre du milliard de dollars pour atteindre les 1,15 milliard, sur le trimestre et au plan mondial. Son adoption est due aux datacenters et au cloud.
Sur ce marché en forte progression, IDC a distingué Cisco. Ce dernier détient la palme de la croissance du chiffre d'affaires dans les commutateurs Ethernet, avec +68,5% par rapport au Q1 2010. Cisco est à son plus haut niveau, sur ce segment, depuis le troisième trimestre 2006. Pour les routeurs, l'équipementier affiche une croissance de 41,3% au trimestre, il détient désormais 52,9% de parts de marché. (...)
| < Les 10 documents précédents | Les 10 documents suivants > |