Flux RSS
108538 documents trouvés, affichage des résultats 1361 à 1370.
| < Les 10 documents précédents | Les 10 documents suivants > |
(09/12/2011 17:15:48)
Recap IT : Forces et faiblesses du cloud, Apple donneur de leçons, Microsoft s'attaque à Duqu
En période de crise, les acteurs IT misent beaucoup sur le développement du cloud, qui sera une des tendances de l'année 2012. On ne s'étonnera donc pas cette semaine d'une forte actualité sur ce sujet. SAP a ainsi annoncé l'acquisition de SuccesFactor pour propager ses offres SaaS. De son côté Cisco a présenté l'unification de ses plateformes cloud avec CloudServe. Certains DSI avertissent néanmoins leurs confrères : « attention aux coûts cachés du cloud ». En périphérie, une étude montre que les erreurs de programmation ont un coût et que réparer du code Java coûte plus cher que des lignes en Cobol. Des inquiétudes peuvent également naître à partir d'un simple reboot pour des mises à jour sur les serveurs d'un fournisseur de service comme Amazon. Un cadre réglementaire stricte peut être aussi un handicap pour les fournisseurs de services clouds. Les entreprises américaines sont pénalisées par le Patriot Act. Enfin, l'offre de formation sur les sujets relatifs au cloud est faible. Centrale Paris et Global Knowledge ont lancé une première formation certifiante sur le sujet.
Apple donneur de leçons et Google inaugure son Googleplex
En matière de mobilité, Apple a donné une leçon de design et d'arrogance à Samsung pour éviter que le coréen ne réplique ses produits. RIM a provisionné 485 millions de dollars suite aux méventes de sa tablette Playbook. Cette dernière a d'ailleurs été jailbreakée et le constructeur a été obligé d'émettre un correctif en urgence. Le nombre de coeurs pour les puces à destination des tablettes n'en finit pas d'augmenter. Qualcomm a présenté une puce 4 coeurs, laissant les analystes dubitatifs sur l'utilité d'une telle frénésie de performance. Google est toujours sous les feux de l'actualité avec les perspectives d'Android pour 2012 avec l'intégration des commandes vocales. Par ailleurs, la firme de Moutain View a inauguré son Googleplex, situé en plein Paris, par Nicolas Sarkozy et Eric Schmidt.
Acquisitions et failles Zero-Day
Sur le plan business, IBM a fait quelques emplettes dans le domaine des smart cities (Curam Software) et du e-commerce (DemandTec). Big Blue voit sa collaboration avec la SNCF se terminer sur le projet Ulysse, alors qu'une cour d'Appel lui donne raison dans son litige avec la MAIF et efface son amende de 11 millions d'euros. Facebook a racheté Gowala pour se renforcer dans les services de géo-localisation. Enfin, Dell avoue lorgner sur une SSII en Europe pour se renforcer dans les services.
Petite semaine en matière de sécurité où l'affaire Carrier IQ, l'espion des smartphones, s'est déplacée sur le terrain judiciaire avec plusieurs plaintes aux Etats-Unis et des enquêtes en Allemagne et Hongrie. Adobe reste vulnérable sur ses logiciels avec plusieurs failles de type zero-day découvertes. Enfin, selon les spécialistes, le Patch Tuesday de Microsoft devrait colmater les failles relatives à Duqu et BEAST.
BT et Orange relient leurs systèmes de téléprésence Cisco
Testée avec un panel de clients un peu partout dans le monde, l'interopérabilité des systèmes de téléprésence Cisco est aujourd'hui étendue à toutes les entreprises passant par les tuyaux de BT et d'Orange. La téléprésence permet aux entreprises d'effectuer des réunions virtuelles en temps réel, en utilisant une technologie avancée de visioconférence. La solution Cisco TelePresence offre une qualité vidéo haute définition (1080p), un son spatial, et une installation conçue pour relier deux pièces séparées physiquement de sorte qu'ils ressemblent à une salle de conférence unique. « Remplacer les face-à-face avec la téléprésence n'est pas seulement un moyen de réduire les frais et les temps de déplacement, c'est aussi un moyen d'accélérer les prises de décision, d'augmenter la productivité et d'améliorer la collaboration inter-organisationnelle qui ne pourrait ne pas exister sans réunions virtuelles », a déclaré McFadzen, responsable des solutions réseau international chez OBS.
Les clients peuvent contacter leur fournisseur de service pour se renseigner sur l'utilisation du service inter-entreprises. Il n'y a pas de coûts supplémentaires, et les clients conservent leur relation commerciale existante avec leur prestataire de services. Un accord similaire portant sur l'interopérabilité des systèmes de téléprésence a déjà été conclu en juin dernier entre Orange et Telefonica.
(...)(09/12/2011 16:08:31)Backup dans le cloud pour Arkeia Network Backup 9.1
Le principal intérêt d'Arkeia Network Backup 9.1 est l'extension de la technologie de déduplication progressive de Kadena Systems à la sauvegarde de données vers le cloud. Une solution désormais hybride donc, local et en ligne. « Il s'agit de donner des outils à nos partenaires qui désirent proposer une plate-forme de sauvegarde avec déduplication progressive », nous a indiqué Frédéric Renard, directeur général EMEA chez Arkeia. Les images sauvegarde peuvent désormais être répliqués en tant que données dédupliquées vers un espace de stockage d'un cloud privé ou public, ce qui constitue une alternative aux bandes pour les sauvegardes hors site. L'usage de la déduplication local permet en outre de diminuer la quantité de données transférées sur le réseau ce qui réduit les temps de back-up. « La sauvegarde peut s'opérer vers un site distant, un cloud privé ou déployer dans un cloud public tel que celui d'Amazon S3 » poursuit le dirigeant. « La solution qui a toutefois le plus de sens est celle proposée par nos partenaires. »
Arkeia propose en effet aux fournisseurs de services hébergés (MSP) et aux revendeurs à valeur ajoutée (VAR) de fournir des services de sauvegarde sur le cloud. L'architecture proposée est classique : un serveur de sauvegarde chez le client - le logiciel ou une appliance physique ou virtuelle - et une machine de réplication dans le datacenter du partenaire ou sur un cloud public. Grâce à l'interface web d'Arkeia Network Backup, le partenaire gère à distance les sauvegardes locales du client final ainsi que la réplication hors site des images de sauvegarde. Un tarif volumétrique sera appliqué par les revendeurs qui sont libres de se caler sur les prix du marché.
A partir de 80 euros par mois pour 60 Go
Partenaire de l'éditeur, Jean-Christophe Le Got, directeur général de Taix, fournisseur de services hébergés basé en région parisienne , nous a détaillé l'offre de sauvegarde hybride qu'il allait proposer avec Network Backup 9.1. « Auparavant, nous travaillions avec ArcServe mais faute d'interlocuteurs et de support, nous avons décidé de passer sur une autre solution il y a deux ans [Arkeia 8 donc]. Avec Arkeia, nous proposons le cheval de Troie de la sauvegarde. Nous déployons des appliances de sauvegarde Arkeia dans les locaux de nos clients et les utilisons pour sauvegarder leurs données. Puis, nous répliquons les données hors site durant la nuit. » Les données sont cryptées et transférées en SDSL pour éviter les time out comme sur l'ADSL. Le dirigeant avoue toutefois ne pas encore proposer de sauvegarde de bases Exchange . « Il est toujours impossible de passer 40 Go dans une nuit. » Pour les tarifs, Taix annonce 80 euros pour 60 Go et 150 euros pour 120 Go mensuels. « Les images et les vidéos ne sont pas encore hébergés, car on ne peut pas les compresser. »
La version 9.1 de Network Backup comprend également des outils étendus pour la gestion du moteur de déduplication progressive et offre un tableau de bord qui rassemble sur une seule page les informations clés du serveur de sauvegarde. Une version bêta d'Arkeia Network Backup 9.1 est actuellement disponible et la version finale est attendue courant janvier. Pour bénéficier du programme bêta, visitez la page : http://www.arkeia.com/beta-test
La version sera gratuite pour les clients d'Arkeia actuellement sous contrat de maintenance. Elle sera commercialisée à partir de 600 euros HT incluant un an de maintenance pour un serveur de sauvegarde.
(...)(09/12/2011 16:00:55)
Première formation certifiante en France sur le cloud
Le cloud computing a très fortement impacté l'organisation des entreprises et leurs équipes. Les métiers se sont transformés et il devenu nécessaire de développer les compétences nécessaires pour construire des systèmes d'information compatibles avec les services cloud en cours de généralisation. « On est en train de passer d'un modèle où l'on faisait tout nous mêmes, à un mode mi externalisé, mi automatisé, qui entraîne une transformation des métiers d'études, d'infrastructure et de support », a souligné Hubert Tournier, adjoint du DSI du groupement des Mousquetaires. Ce dernier regrette l'hyper-spécialisation de certains profils qui présente un risque à la fois pour les individus et pour l'agilité des organisations
« L'approche des métiers est devenue transversale, car il faut désormais créer des services de bout en bout », a poursuivi Patrick Joubert, patron de la société Beamap*. « Les équipes doivent également partager une même sémantique et une même approche de la méthodologie. »
Pour Florence Durand, directrice de Centrale Paris Executive Education, les changements générés par le cloud computing demandent plus qu'une simple adaptation du poste de travail. « Il ne faut pas hésiter à opter pour des formations longues, de 20, 50 ou 60 jours », assure-t-elle. « D'ailleurs, on assiste à une montée en puissance de Mastères spécialisés et des certificats professionnels. En suivant ce type de cursus, les participants sont davantage motivés, car leur savoir-faire leur permet d'être immédiatement valorisés dans leur entreprise. »
20 000 € pour 21 jours de cours
Pour identifier et qualifier les spécialistes du domaine, l'école Centrale Paris Executive et l'organisme de formation IT Global Knowledge ont mis sur pied la première formation qualifiante en France sur le cloud computing. Ce cursus de 21 jours étalés sur 7 mois se décline en quatre modules. Une première session de trois jours aborde les fondamentaux (définitions, enjeux et bénéfices du cloud). 9 jours sont ensuite consacrés au management et à la mise en oeuvre d'une solution de cloud. Un troisième volet (4 jours) s'attaque aux architectures techniques et applicatives, tandis qu'un dernier axe porte, durant 4 jours, sur des retours d'expérience de projets réels.
La certification se base sur du contrôle continu (1 test écrit après chaque module) et une étude de cas avec soutenance en fin de cursus. La formation procure un certificat, inscrit au RNCP (Répertoire National de la Certification Professionnelle) de niveau 1 (BAC+5), délivré par Centrale Paris Executive Education.
Conditions d'admission : être titulaire d'un diplôme Bac+4 ou au minimum de 3 ans d'expérience dans la fonction (DSI, responsable système, responsable architecture, etc.). Quant au coût de la formation, il s'élève à 20 000 € HT pour 21 jours de cours.
* Mise à jour
(...)
Deux failles zero-day trouvées dans Flash Player d'Adobe
Les dernières failles de sécurité du Flash Player d'Adobe ont été découvertes par une société russe, Intevidys. Elle a intégré cette découverte dans son module Vulndisco pour Immunity Canvas, une application réputée de penetration-testing. Le PDG et fondateur de la société, Evgeny Legerov, a indiqué qu'il ne notifierait pas ces failles à Adobe. Il y a deux ans déjà, le dirigeant avait averti les éditeurs qu'il ne donnerait aucune information sur les vulnérabilités découvertes. Intevydis n'est pas la seule entreprise de sécurité qui a adopté cette approche de « plus de bugs gratuits ». Le français Vupen est également un adepte de cette philosophie et ne partage les informations de sécurité qu'avec ses clients payants.
Un risque d'attaque en reverse engeeniring
L'attaque développée par Intevydis utilise deux failles de type zero-day de Flash Player sous Windows. Elle peut contourner les fonctionnalités de sécurité, y compris DEP et ASLR, mais aussi la sanbox d'Internet Explorer, précise Evgeny Legerov. La société a également publié une vidéo montrant l'attaque en action sur Windows et a promis de publier des informations sur MacOS X. Les vulnérabilités liées à Flash Player peuvent être exploitées en intégrant du contenu Flash malveillant dans des sites web ou des documents PDF. Adobe Reader et Acrobat sont généralement affectées par les défauts de Flash Player, car ils incorporent une composante de lecture Flash.
Adobe n'a pas émis d'avis pour ces deux failles. L'éditeur travaille déjà sur un patch pour une autre faille zero-day dans Adobe Reader et Acrobat, qui est attendue pour la semaine prochaine. Les éditeurs de logiciels antivirus et les fabricants d'IPS n'ont pas encore créé de signatures pour ces attaques, selon le SANS Internet Storm Center (ICS). En attendant, il existe un risque que des pirates utilisent l'attaque d'Intevedys à leurs fins.
Patch Tuesday : Microsoft ciblerait Duqu et BEAST
Microsoft a annoncé aujourd'hui qu'il émettra mardi 13 décembre, lors du Patch Tuesday, 14 mises à jour de sécurité pour corriger 20 vulnérabilités dans Windows, Internet Explorer (IE), Office et Media Player. Parmi les correctifs, les spécialistes de la sécurité pensent qu'ils serviront à combler les failles utilisées par Duqu et à réparer le protocole SSL 3.0 (Secure Socket Layer) et TLS 1.0 (Transport Layer Security), victime d'une technique de piratage nommée BEAST (Browser Exploit Against SSL/TLS).
« Ils mettent tout sur la table » s'exclame Andrew Storms, directeur des opérations de sécurité chez nCircle security, en décrivant le large éventail de produits Microsoft qui seront corriger. Il ajoute, « cela ressemble à un grand nettoyage avant la fin de l'année. » 3 des 14 mises à jour ont été classées par Microsoft comme « critique ». Les 11 restantes ont été qualifiées d' « importantes ». Les bugs dans 10 mises à jour pourraient être exploités à distance par des pirates via du code malveillant installé sur des PC non patchés.
Andrew Storm souligne que la mise à jour d'IE devra être rapidement installée par les utilisateurs. Il constate néanmoins qu'en raison du cycle des corrections, les utilisateurs oublient de mettre à jour leur navigateur, surtout en cette période d'importants achats en ligne ». La firme de Redmond a corrigé 6 fois cette année IE, mais Andrew Storm s'étonne que l'éditeur ait attendu la fin de l'année et surtout les périodes de fêtes pour réparer les défauts du navigateur. Il milite pour une mise à jour importante au mois de novembre.
Duqu et BEAST en ligne de mire
La mise à jour 1 devrait également être installée rapidement, estime Marcus Carey, un chercheur en sécurité de Rapid7. Il a corrélé les versions de Windows concernées par cette mise à jour et celles du mois précédent pour en déduire que ce bulletin de sécurité corrigerait la faille exploitée par Duqu. « La principale raison pour laquelle je pense que ce bulletin est relatif à Duqu est qu'il nécessite un redémarrage, ce qui indique qu'un bug du noyau doit être corrigé. De plus, il affecte toutes les versions de l'OS ». Andrew Storm pense que Microsoft va également stopper la faille dans le moteur d'analyse TrueType identifié par l'éditeur comme un vecteur des attaques de Duqu. Il précise que « cela serait stupide de ne pas avoir de patch Duqu avant la fin de cette année. Microsoft a eu assez de temps ».
Le spécialiste de la sécurité s'attend aussi à une mise à jour sur des problèmes de longue date dans SSL 3.0 et TLS 1.0 sous Windows. Microsoft a publié un avis de sécurité en septembre dernier sur la technique de piratage nommée BEAST récemment dévoilée.
Les 14 mises à jour prévues mardi 13 décembre se classent en troisième position par rapport aux 17 du mois de décembre 2010 et avril 2011. Le nombre total de mises à jour pour l'année 2011 est de 100, soit 5,6% de moins qu'en 2010 et le nombre total de vulnérabilités corrigées était de 237, soit 10,7% de moins que le record de 2010, 266. (...)
Amazon reboot son cloud
Cette semaine, les clients d'Amazon Web Services ont fait part de leurs inquiétudes à propos du redémarrage que le fournisseur réalise sur ses serveurs. Mais, selon les experts, « si les utilisateurs ont correctement configuré leurs applications, ils ne devraient pas souffrir de l'opération de maintenance. »
Amazon a adressé à ses clients AWS un courriel les informant que les serveurs qu'ils utilisent seront redémarrés au motif qu'ils doivent « recevoir des patchs de mises à jour, » comme l'indique le communiqué publié en ligne par Randy Bias, directeur technique de Cloudscaling. Cette nouvelle a mis certains utilisateurs en ébullition, qui s'inquiétaient de savoir si leurs applications seraient toujours accessibles pendant le redémarrage. « Apparemment, aujourd'hui mercredi, c'est le reboot de l'EC2. C'est aussi le jour où certains PDG apprennent : (1) qu'ils utilisent l'EC2 ; (2) qu'ils ne l'utilisent pas très bien, » écrit sur Twitter William Vambenepe, architecte logiciel chez Oracle. EC2 - pour Elastic Compute Cloud - est une offre d'Amazon Web Service (AWS) qui permet aux entreprises de louer des serveurs sur lesquels elles peuvent faire tourner leurs propres applications web.
Le reboot d'un cloud n'est pas incongru
D'autres experts, ainsi qu'Amazon, ont rappelé aux utilisateurs que le redémarrage n'est pas quelque chose de nouveau ou exclusivement le fait de services cloud. « Ce calendrier de déploiement correspond à peu de choses près au calendrier de maintenance des fournisseurs de services d'hébergement traditionnels ou à celui réalisé en interne par les groupes informatiques quand ils déploient des correctifs logiciels ou des mises à jour, » explique Kay Kinton, une porte-parole d'Amazon.
GoGrid, un fournisseur d'Infrastructure-as-a-Service (IaaS), fait également remarquer que si les entreprises gèrent leurs propres serveurs en interne, ils doivent faire des mises à jour similaires. Certes, le déplacement vers le cloud évite aux administrateurs de nombreux soucis de gestion globale, mais certains ont pu considérer que les problèmes liés au redémarrage nécessaire de ces serveurs « appartenaient au passé depuis qu'ils avaient rejoint le cloud,» a ajouté Jayson Vantuyl, ingénieur en chef chez GoGrid. Autre exemple, Salesforce propose une mise à jour trimestrielle, généralement effectuée le dimanche matin, qui immobilise pendant une courte durée ses solutions en ligne.
Penser à la redondance même sur le cloud
« Les utilisateurs qui ont préparé leurs systèmes de façon à inclure les redondances ne devraient pas avoir de problème, » a-t-il ajouté. « Si vous n'avez pas de redondance, vous vous retrouvez où vous étiez déjà, » a-t-il expliqué. Il entend par là qu'Amazon - ou tout autre fournisseur de cloud - ne garantit jamais que le matériel ne tombera pas en panne. « Si un utilisateur ne dispose pas de redondance intégrée dans son application et qu'un élément de hardware devient indisponible pour une raison quelconque, leur application en subira les conséquences. » Amazon prévient les utilisateurs dans le cas où leurs applications risquent d'être impactées, afin qu'ils aient la possibilité de gérer le redémarrage eux-mêmes.
« Netflix, qui gère son service de vidéo en streaming sur AWS, a opté pour un reboot calé sur son propre calendrier, » a écrit sur Twitter Adrian Cockcroft, directeur de l'architecture systèmes dans le cloud chez Netflix. « Cela permet aux utilisateurs de s'assurer que, à aucun moment, leur cluster tout entier ne se retrouve hors ligne, » a déclaré Mark Worsey, DSI de GoGrid. « Ils peuvent le faire eux-mêmes très méthodiquement, » a-t-il ajouté. « AWS laisse le choix à l'entreprise de réaliser cette opération de manière contrôlée afin d'éviter le grand reboot massif qui engendre une panne, » a-t-il expliqué.
Un redémarrage zone géographique après l'autre
Néanmoins, Amazon prend soin de réaliser son opération de mise à jour zone par zone. « Nous prenons garde de ne pas effectuer les mises à jour sur des zones de disponibilité multiples, dans la même région, le même jour, de façon à ce que les instances d'un client situées dans des zones de disponibilité différentes ne soient pas mises à jour au même moment, » a déclaré la porte-parole d'Amazon. Cela signifie que le client qui a anticipé le basculement de ses applications dans une autre région ne sera pas touché par le redémarrage.
(...)(09/12/2011 12:05:59)Pour 2012, Acer mise gros sur les ultrabooks
Le fabricant d'ordinateurs basé à Taïwan a annoncé qu'en 2012, il se consacrerait essentiellement à fabriquer des ultrabooks, la nouvelle classe d'ordinateurs portables ultra-minces d'Intel. Acer veut également mener une stratégie très incitative auprès des utilisateurs afin qu'ils soient plus tentés d'acheter ses PC. Le fabricant va d'abord travailler sur des marchés établis, comme les États-Unis notamment. Dans une interview au Dow Jones, JT Wang, Chief Executive d'Acer a déclaré : « L'an prochain, les ultrabooks seront notre principal moteur de croissance. Les utilisateurs veulent un ordinateur portable plus léger, plus mince, avec une plus grande autonomie. »
D'autres constructeurs également sur les rangs
Acer n'est pas la seule entreprise à miser sur le succès des ultraportables. Beaucoup de fabricants comme Asus, HP, Lenovo, LG et Toshiba, se sont déjà mis sur la voie de ces portables ultra-minces, et d'autres fabricants comme Dell, Fujitsu, Samsung et Sony devraient coller à la tendance en 2012. Certains détracteurs prédisent que près de 50 nouveaux portables fins seront annoncés lors du prochain Consumer Electronics Show (CES) qui se tiendra en janvier 2012 à Las Vegas.
Les ultrabooks sont la réponse d'Intel au MacBook Air d'Apple qui a véritablement défriché le marché depuis 2008. Ils sont censés offrir une plus grande autonomie, afficher des profils de moins de 2 cm d'épaisseur, offrir une mise en route très rapide, disposer de disques durs SSD, intégrer les derniers processeurs Intel Core (actuellement Sandy Bridge), le tout pour un prix inférieur à 1 000 dollars HT...
Un prix difficile à compresser
Le prix avancé par Intel a jusqu'ici été l'objectif le plus difficile à atteindre. En octobre dernier, Acer a été le premier fabricant à livrer un ultrabook en dessous de 1 000 dollars, proposant son S3 à 900 dollars. Mais pour atteindre cet objectif, Acer a dû mettre dans son S3 un disque dur rotatif au lieu d'un SSD. Par la suite, Acer a livré un modèle intégrant un disque SSD pour le stockage des fichiers, mais a augmenté le prix de son ultrabook au passage, de 900 à 1300 dollars. Apparemment, JT Wang semble bien s'accommoder de ces ultrabooks plus chers, car il compte faire entrer plus d'argent dans les caisses de l'entreprise en augmentant ses marges plutôt qu'en vendant des quantités de PC bon marché. « Nous allons modifier notre stratégie pour améliorer notre rentabilité, autrement qu'en cherchant à gagner aveuglément des parts de marché avec des produits bon marché et peu rentables, » a expliqué le Chief Executive d'Acer. Un nouveau discours chez le taiwainais.
Ce dernier espère ainsi que l'année prochaine son entreprise augmentera ses ventes de PC de 10%, en grande partie grâce aux ultrabooks, et grâce également à la demande des marchés émergents comme la Chine, l'Inde et le Brésil, des territoires où les netbooks sont encore populaires. En 2011, les portables plus fins vont déjà avoir un impact positif sur l'entreprise, qui a récemment déclaré qu'elle était sur la bonne voie pour expédier 250 000 à 300 000 ultrabooks d'ici la fin de l'année. Les utilisateurs, quant à eux, se sont détournés des portables bon marché d'Acer pour s'orienter vers des tablettes, ou est-ce simplement à cause de l'aggravation de la situation économique mondiale.
Des ultrabooks à 500 dollars ?
Alors que le PDG d'Acer envisage sur 2012 des profits liés à la vente d'ultrabooks, de proches collaborateurs de l'entreprise voudraient proposer des modèles encore moins chers. Début décembre, Jim Wong, le Président d'Acer, parlait de ramener les prix de ces portables ultra-minces à moins de 900 dollars d'ici mi-2012, et de les faire descendre ensuite à 500 dollars en 2013.
Alors, que va-t-il se passer ? Est-ce que Acer va continuer à vendre des ultrabooks inspirés par le MacBook Air d'Apple à des prix Apple ? Ou bien est-ce que Acer va baisser radicalement ses prix dès le mois de juin pour gagner des parts de marché ?
(...)(09/12/2011 11:48:42)SAP choisit Alfresco comme solution de gestion des contenus
Souhaitant trouver une solution permettant d'harmoniser ses systèmes de gestion de contenus, SAP a fixé son choix sur une suite Open Source de Content Management, de traitement des documents et de Web Publishing éditée par Alfresco.
Selon Alfresco, la décision a été prise après que SAP a testé plusieurs solutions, la solution proposée par Alfresco permettant la meilleure intégration avec les différents systèmes de SAP, mais aussi avec des sites web en Java. Par ailleurs, SAP intégrera également la plateforme «Alfresco Share & Document Management» permettant un traitement collaboratif des documents.
«La solution produite par Alfresco permet de gérer d'énormes quantités de données et de documents, mais elle dispose avant tout des capacités nécessaires pour répondre aux exigences futures de SAP en termes de Content Management. De plus, Alfresco reposant sur une architecture Open Source, les développeurs SAP ont pu analyser et évaluer chaque ligne de code à leur guise, ce qui nous permettra à l'avenir d'intégrer d'autres technologies sans devoir craindre des incompatibilités», a relevé Ran Cliff, vice-président IT chez SAP.
Rachat d'actions repousséDans une autre actualité relative à SAP, le groupe a annoncé avoir repoussé le programme de rachat d'actions qu'il avait planifié, en raison de la reprise annoncée de Successfactors. En effet, selon une déclaration de Werner Brandt, responsable des finances au sein du groupe, au vu des 3,4 milliards de dollars que SAP s'apprête à débourser pour cette acquisition, le groupe ne sera en mesure de mettre en oeuvre son programme de rachat d'actions que vers la fin de l'année prochaine, en fonction de la situation du marché.
ICTJournal.ch
Cisco unifie ses plateformes cloud avec l'architecture CloudVerse
Cisco lance CloudVerse, une architecture de référence pour les fournisseurs de Cloud. Les grandes entreprises, les fournisseurs de services et les collectivités devraient ainsi pour la première fois pouvoir construire et déployer des modèles cloud publics, privés ou hybrides interconnectés de manière totalement sécurisée.
Cisco entend mettre à disposition un ensemble d'outils et de services, dont un centre de données unifié, un réseau intelligent, des applications et services cloud ainsi que des services professionnels et techniques. Cette plateforme intégrée doit permettre des services et des applications cloud dynamiques et hautement sécurisés. CloudVerse doit permettre de surmonter la barrière des silos technologiques, afin de construire, déployer et gérer plusieurs clouds simultanément. Par ailleurs, dès 2012 Cloud-to-Cloud Connect doit offrir un système de localisation reposant sur des routeurs de la ligne ASR 1000 et 9000.
Index Global Cloud de CiscoLa semaine dernière, Cisco a publié son Global Cloud Index (2010-2015). Le groupe prévoit que le transfert de données au niveau mondial passant par des centres de données devrait être multiplié par 4 d'ici 2015 pour atteindre 4,8 zetabyte. Le trafic cloud connaît actuellement la croissance la plus forte, avec une hausse de 66%, et devrait passer de 130 exabyte en 2010 à 1,6 zetabyte en 2015.
D'ici quatre ans, 76% du trafic passera par des centres de données, et 7% seront engendrés par le trafic entre centres de données pour des activités comme la duplication de données et les updates. Des chiffres qui, selon Cisco, confirment la popularisation croissante des centres de données interconnectés et des services cloud.
ICTJournal.ch (...)
| < Les 10 documents précédents | Les 10 documents suivants > |