Flux RSS
108538 documents trouvés, affichage des résultats 7711 à 7720.
| < Les 10 documents précédents | Les 10 documents suivants > |
(10/06/2010 18:40:06)
Exchange et SharePoint toujours en version 2007 dans le cloud
La messagerie Exchange 2010 a été livrée en novembre 2009 par Microsoft et la version 2010 du portail SharePoint est sortie en mai dernier. En revanche, les versions cloud de ces offres, accessibles à travers l'offre BPOS (Business Productivity Online Services), fonctionnent toujours sur la base des versions 2007.
L'objectif de Microsoft est d'offrir en ligne à ses clients, à l'identique, les fonctions qu'ils pourraient déployer en interne sur leurs serveurs. Mais... « Cela nous prend un peu de temps de mettre à jour les datacenters avec les nouvelles versions d'Exchange Server et de SharePoint Server », a récemment reconnu Chris Capossela, senior vice président du groupe Information Worker Product Management, chez Microsoft. « A la fin de l'année, nos plus importants clients en ligne disposeront des versions mises à jour, qui fonctionnent avec les serveurs 2010 ».
BPOS évolue chaque trimestre
Interrogé de nouveau sur ce point, cette semaine, par nos confrères de Network World, Microsoft a fourni une estimation légèrement différente, mais qui situe toujours l'essentiel de la mise à jour pour la fin de l'année. « BPOS est complété tous les trimestres de nouvelles fonctions et possibilités », a expliqué un porte-parole de Microsoft dans un courriel. Il confirme que l'éditeur a déjà mis à disposition des fonctions de la version 2010 pour ses plus grands clients en ligne. « Nous poursuivrons la livraison de la technnologie 2010 plus largement à l'ensemble de notre base client qui peut tabler sur une 'preview' de ces fonctions un peu plus tard dans l'année ».
Les entreprises qui attendent impatiemment d'exploiter Exchange 2010 et SharePoint 2010 dans le cloud peuvent s'adresser à un prestataire qui propose déjà des versions hébergées des technologies 2010.
Sur TechEd 2010, cette semaine, Microsoft a montré quelques-unes des possibilités qu'offrira Communications Server 14, dont la livraison est prévue pour le deuxième semestre. Des fonctions que les utilisateurs de BPOS ne verront que l'an prochain.
Illustration : Microsoft Exchange Online
VCS, la fabrique de convergence de Brocade
Depuis le rachat de Foundry Networks en 2008, Brocade est engagé sur le chemin de la convergence réseau. Brocade One est aujourd'hui l'appellation marketing de cette stratégie chez l'équipementier qui ambitionne de simplifier la gestion des datacenters et de baisser les coûts d'administration. « L'ensemble du réseau est votre centre de données; un réseau unique simplifié qui n'impose pas de rupture technologique », explique Régis Harault directeur de Brocade France. L'équipementier cherche en effet à transformer les équipements physiques des centres de calcul en ressources virtuelles allouées ou réallouées via l'intermédiaire d'un VAL (Virtual Access Layer) reposant sur une machine virtuelle (QoS) et sur les switchs VCS (Virtual Cluster Commutation). Selon Bruno Guiet, architecte solutions EMEA chez Brocade, la solution VAL permet de déplacer les machines virtuelles au sein du datacenter en conservant tous les attributs de la VM. Reposant sur un standard ouvert, VAL ne supportera toutefois pas avant un an ou deux la norme IEEE Edge Virtual Bridging, qui inclut l'agrégation de port Ethernet virtuel (VEPA).
Principaux avantages des VCS, un temps de latence réduit, puisque les données circulent moins au sein du datacenter et une meilleure utilisation des ports Ethernet. Il n'y aura pas de support du protocole Spanning Tree en interne mais de Trill, explique Bruno Guiet. « On a davantage affaire à un super Ethernet qu'à un Ethernet », souligne ce dernier. Ce protocole améliore le transport des trames en utilisant tous les chemins disponibles et exploite tous les ports des switchs. VCS apporte également une fonctionnalité
baptisée insertion dynamique de service, permettant de reconfigurer automatiquement à 90% des éléments et des services en récupérant et en réinterprétant les scripts. Comme chez l'équipementier Arista, chaque switch VCS a une base de données embarquée permettant de conserver les informations sur les différents équipements du réseau. Un commutateur VCS devrait supporter jusqu'à 1000 ports Ethernet 10 Gigabits et 10 000 VM. Un cluster de switch VCS pouvant être géré comme un seul commutateur logique dans un datacenter.
[[page]]
Attendue en fin d'année, la plate-forme VCS reposera pour commencer sur trois commutateurs basés sur de nouveaux circuits ASIC et un système d'exploitation baptisé Brocade Network OS. Bâti sur un coeur Linux, ce dernier assurera la convergence entre Fibre Channel et services IP. Une architecture similaire à l'architecture de convergence de Cisco, les commutateurs Nexus animés par NX-OS.
Uniquement compatibles avec les équipements réseaux de Brocade et de Foundry Networks déjà présents dans les datacenters, les trois commutateurs VCS comprennent un switch 2U 60 x 10G, un 1U 48 x 10G et un 1U 24 x 10G . Tous les ports fonctionnant à
10G, précise Bruno Guiet. Les commutateurs 60 et 24 ports sont attendus au quatrième
trimestre 2010. La version 48 ports arrivera quant à elle au premier trimestre de 2011.
Brocade devrait également commercialiser un système de gestion des environnements Brocade One au troisième trimestre de cette année. Cette solution proposera le support d'Ethernet, de la Fibre Channel et du Data Center Bridging avec les solutions de stockage et les systèmes d'hyperviseur d'IBM, de HP, de Dell, d'EMC, de Microsoft et de VMware. Ce gestionnaire donnera une visibilité globale des VCS sur le réseau.
TechEd 2010 : il manque encore des fonctions à Azure
Parmi les fonctions qui font encore défaut aux déclinaisons Azure des produits Microsoft, les plus importantes arriveront dans les 12 à 18 mois, a assuré Bob Muglia, le patron de la division Serveurs & Outils de Microsoft, sur l'édition 2010 du TechEd. « Cela ne veut pas dire que toutes les fonctions seront là, mais les principaux manques commenceront à être comblés », a-t-il prudemment précisé.
Pour attester des avancées en cours, Bob Muglia a listé un certain nombre d'éléments qui n'ont complétés que récemment les versions Azure. Par exemple, la prise en compte dans la base de données SQL Server des coordonnées de géolocalisation, ou encore le support de la version 4 de l'environnement de développement .Net. En revanche, il faut encore ajouter d'autres fonctions, telles que SQL Server Integration Services.
Capacité d'ajustement, bascule automatique
Dans son approche du cloud, Microsoft a choisi de se focaliser sur des attributs spécifiques à ce type d'infrastructure, comme la capacité d'ajustement automatique en fonction du nombre d'instances requises, quelle qu'en soit l'ampleur. Ou encore l'aptitude à basculer de façon automatique en cas de défaillance de l'un des sites. « Nous avons décidé de construire la plateforme avec ces attributs, quitte à ne pas pouvoir fournir tout de suite certaines autres fonctions dont vous auriez besoin ».
Porter des applications dans le cloud implique bien plus que de rendre simplement le logiciel accessible en ligne, a expliqué Bob Muglia. « Quand nous avons bâti Windows Server Azure, nous ne nous sommes pas contentés de prendre Windows Server et de l'héberger dans un datacenter. Nous avons déterminé ce dont nous aurions besoin pour construire une plateforme de cloud à l'échelle mondiale ».
Illustration : Bob Muglia, président de la division Server & Tools de Microsoft, lors de la PDC (Professional Developpers Conference) de Los Angeles en novembre 2009 [crédit photo : Microsoft][[page]]
L'éditeur s'est donc principalement concentré sur l'évolutivité d'Azure, pour lui donner les capacités de conserver de multiples copies des données à portée de main, et atteindre les autres pré-requis qui constituent les avantages du cloud computing.
« Nous démarrons d'abord avec un sous-ensemble et nous ajoutons des fonctions au fur et à mesure », explique Bob Muglia en présentant l'édition SQL Server Azure comme un exemple de cette approche. Le dirigeant fait remarquer qu'une seule instance de SQL Server Azure est exploitée à travers des milliers d'ordinateurs dans six datacenters dans le monde. « Personne n'a fait tourner une seule base de données sur autant de serveurs distribués », a-t-il affirmé sur TechEd.
Montée en charge réussie lors du Super Bowl Sunday
L'un des premiers utilisateurs d'Azure a été la chaîne de restauration américaine Domino's Pizza, indique Prashant Ketkar, directeur produit et marketing de Windows Azure. En janvier dernier, lors du Super Bowl Sunday (rencontre de football américain extrêmement suivie qui représente aussi la 2e journée record de consommation alimentaire aux Etats-Unis, après Thanksgiving), le fournisseur a pu faire monter en charge son système de commande en ligne pour prendre en compte le trafic supplémentaire.
Porter vers Windows Server Azure une application fonctionnant à l'origine sur Windows Server prend du temps, avertit Prashant Ketkar. A la fin de l'année, Microsoft fournira la possibilité de procéder à ces transferts sans reconfiguration, mais ces applications ne pourront pas tirer bénéfice des capacités de montée en puissance d'Azure, ni de ses autres fonctions natives.[[page]]
Pour Robert Wahbe, vice président corporate, responsable du marketing pour la division Servers & Tools, l'approche de la plateforme Azure est plus sophistiquée que celle de concurrents comme Google et Amazon, en raison du fait qu'elle fournit un seul environnement pour toutes les instances de logiciels, que ceux-ci fonctionnent en interne sur Azure, ou qu'ils tournent sur une autre plateforme de cloud basée sur le framework .Net. « Personne d'autre ne fait cela », avance-t-il.
Jusqu'à présent, ce sont les applications de messagerie et de collaboration qui ont été le plus souvent portées dans le cloud. Les applications plus complexes, telles que les ERP, y sont moins courantes. [NDLR : à noter, dans ce domaine, que l'éditeur Lawson propose à ses clients de déployer ses solutions ERP dans le cloud EC2 d'Amazon]
Les petites entreprises iront probablement vers le cloud avant les grandes, prévoit Bob Muglia, notamment parce qu'elles développent moins souvent leur propres applications.
Avec Caffeine, Google passe à l'indexation quasi instantanée
Auparavant, Google n'effectuait la mise à jour de son index que tous les 30 jours, et à l'origine, ne le faisait que tous les quatre mois. Ce sont les attentats du 11 septembre 2001 qui ont marqué un tournant, incitant Google à offrir sur ses pages des résultats de recherche mis à jour quasiment en temps réel. Le 11 septembre en effet, Google News n'existait pas. Le géant de la recherche indexée - qui à l'époque n'avait que trois ans d'existence - ne restituait pas les dernières nouvelles dès qu'elles étaient mises en ligne. Mais immédiatement après les attentats, CNN.com et d'autres sites d'information ont eu du mal à répondre à la demande. « Comme Google a pu avoir accès à ces sites, il a commencé à livrer les pages mises en cache, car l'entreprise ne disposait pas de la bande passante nécessaire pour faire face au nombre de visiteurs, » a déclaré Matt Cutts, chef de l'équipe Web en charge du spamming chez Google.
« En quelques heures, nous pouvions mettre à disposition un contenu utile auquel les gens ne pouvait pas avoir accès autrement, parce que les autres sites ne pouvaient pas suivre, » a-t-il déclaré. « Google aurait retiré les pages web mises en cache si les sites propriétaires le lui avaient demandé, » a-t-il dit. C'est, en partie, de cette demande survenue après le 11 septembre qu'est né Google News. Elle a également servie d'impulsion pour orienter l'entreprise vers le choix de rendre compte immédiatement, » a-t-il ajouté. « Ce fut un véritable déclic qui nous a amenés à décider d'être très attentif à la fraîcheur des informations affichées. Nous le savions déjà auparavant, mais nous pensions que l'indexation faite tous les 30 jours était convenable, » a-t-il convenu.
[[page]]
Jusque-là Google s'employait à parcourir une partie du web toutes les nuits, puis indexait les nouveaux éléments par lot. Avec Caffeine, Google indexe immédiatement les informations mises à jour à mesure que ses robots explorent l'Internet. Mis en action depuis cette semaine - comme l'a annoncé Google lors du Search Marketing Expo de Seattle -, on peut déjà constater que le moteur de recherche affiche des changements immédiats. Le blog I4U News a même décidé de mettre Caffeine à l'épreuve : après avoir publié un article avec un mot rare dans le titre, le site a constaté que son titre modifié était apparu après une minute à peine dans les résultats de recherche de Google. « L'information inscrite dans les recherches de Google et indexée immédiatement avec Caffeine indiquera qu'elle a été mise à jour « il y a quelques secondes », » a déclaré Matt Cutts.
Cependant, tous les changements réalisés sur chaque site n'apparaîtront pas immédiatement. « Google se base sur des critères comme le classement de la page dans les résultats pour déterminer quels sites mettre à jour plus rapidement, » a expliqué Matt Cutts. « Google parcourt également les sites d'information et de blogs plus souvent que d'autres, » a-t-il dit. Le moteur de recherche commence également à s'appuyer sur de nouveaux outils, tel Pubsubhubbub, pour savoir à quel moment les sites sont mis à jour. Utilisé par les blogs, cet outil Open Source envoie un ping vers Google lorsque le site est mis à jour et le moteur peut alors ajouter la nouvelle page à son index.
(...)(10/06/2010 10:58:22)Canal+ optimise sa GRH en dématérialisant ses bulletins de paie
Afin d'alléger le processus de gestion des documents des ressources humaines, le groupe de média Canal + a opté pour la dématérialisation de ses bulletins de paie. Aujourd'hui, composé de 1 900 intermittents et 3 500 stagiaires et salariés à contrats à durée déterminée ou indéterminée, le groupe a décidé de moderniser sa GRH. Diane Egloff, responsable du SIRH, explique : « Auparavant, le processus était très long. Les documents devaient être édités, imprimés, acheminés au service de paie et triés par les assistants de distribution. » La dématérialisation permet désormais de gagner du temps et de recentrer le travail de l'équipe de paie, qui se voit ainsi attribuer des tâches à plus forte valeur ajoutée.
Stockés dans des coffres-forts électroniques
Un nouveau processus a été mis en oeuvre. Désormais, une fois édités, les bulletins de salaires dématérialisés sont stockés dans des coffres-forts électroniques. Le salarié reçoit ensuite une notification par email lui délivrant un lien pour y accéder et, s'il le souhaite, pour l'imprimer, bien que ce ne soit aucunement l'objectif du projet. Des documents annexes sont également joints au fichier électronique, comme les propositions du Comité d'Entreprise.
Afin que les salariés comprennent les enjeux d'un tel projet et se familiarisent avec son mode de fonctionnement, Canal + a instauré une communication interne accrue, principalement via des communiqués publiés sur l'intranet. Ainsi, comme le précise Diane Egloff, « les employés ont accès à une foire aux questions, à un site support de la part du prestataire de services et à des journées portes ouvertes sur le thème de la dématérialisation ». L'objectif est de pouvoir répondre à toutes les questions que se posent les salariés.
[[page]]
Canal + a tenu à rassurer son personnel sur le fait que ces documents ont une valeur probante. La loi énonce à ce titre que cette dématérialisation ne peut être effectuée sans l'accord du salarié, que les données doivent être certifiées, et que l'entreprise doit conserver l'original 45 ans et une copie pendant 5 ans.
Après deux mois de mise en place, 33% de l'effectif a déjà accepté de recevoir leurs bulletins de paie au format électronique. Ce projet aura rapidement été mis en place. En octobre 2009, Canal + a lancé un appel d'offres et, en mars 2010, il a été déployé au niveau du groupe. Pour l'heure, cependant, les intermittents continuent de recevoir leurs bulletins de paie en format papier, leurs représentants s'opposant à la dématérialisation.
Grâce à ce projet, le groupe s'inscrit non seulement dans une démarche de modernité, mais aussi de développement durable.
Canal + a choisi Novapost pour dématérialiser ses documents RH et mettre en forme les bulletins de paie. Le coffre-fort électronique est, quant à lui, fourni par CDC Arkhinéo (groupe Caisse des Dépôts et Consignations). (...)
La CNIL donne son aval pour recourir à la biométrie au parloir
La CNIL autorise la biométrie dans la sécurité carcérale. Depuis la réforme de 2004 de la Loi Informatique et Libertés, les traitements biométriques doivent être expressément autorisés par la CNIL. Celle-ci a toujours été très réticente vis-à-vis de ces technologies très invasives et très risquées pour la vie privée.
Le projet Bioap, mis en oeuvre dans chaque prison au fur et à mesure de son déploiement, comprendre les données suivantes : nom de famille, nom d'usage, alias et prénoms ; numéro d'écrou ; une photographie d'identité numérisée ; un gabarit du contour de la main ; et un suivi des contrôles d'identification. La photographie ne fait pas l'objet d'un processus de reconnaissance automatique. De plus, le contour de la main est plus simple à mettre en oeuvre que le contrôle des empreintes digitales. Surtout, la CNIL a été sensible à la durée et aux modalités de conservation des données : chaque prison aura son propre traitement, et les données ne seront conservées que durant la détention effective dans la prison concernée. Elles seront détruites lors d'un transfert définitif ou d'une libération.
Les moyens mis en oeuvre sont donc compatibles et proportionnées avec les finalités déclarées.
Les restrictions apportées par la CNIL dans un projet relatif aux établissements pénitentiaires sont là pour rappeler aux entreprises privées qu'elles ne peuvent pas mettre en oeuvre des traitements plus invasifs vis à vis de personnes libres.
Un directeur général arrive enfin chez BMC France
A peine sa nomination officialisée, celui-ci annonce que les effectif commerciaux de BMC Software France ainsi que le nombre de ses partenaires vont être étoffés.
| < Les 10 documents précédents | Les 10 documents suivants > |