Flux RSS
108538 documents trouvés, affichage des résultats 17481 à 17490.
| < Les 10 documents précédents | Les 10 documents suivants > |
(07/11/2007 11:36:00)
Google Announces Open Platform for Mobile Devices
Réalisation : IDGNS (...)
(06/11/2007 17:47:09)Wikipédia : à consommer avec discernement
A peine une semaine après avoir obtenu gain de cause auprès du Tribunal de grande instance de Paris (qui a débouté le procès de trois plaignants pour « atteinte à la vie privée »), Wikipédia fait encore parler de lui. Au centre du débat, un essai de 142 pages, baptisé « La Révolution Wikipédia » (éditions Mille et une nuits), rédigé par une poignée d'étudiants de Sciences-Po et préfacé par leur professeur Pierre Assouline. Dès le sous-titre, la problématique du livret est posée sans détour : « les encyclopédies [papier] vont-elles mourir ? ». Sous-entendu, au profit des encyclopédies en ligne, comme Wikipédia. Véritable mine d'informations, ce site interactif, en perpétuelle évolution, gratuit et « etoffable » à souhait est devenu incontournable. Six ans après sa création, il fait partie des sites les plus consultés dans le monde (50 millions de visiteurs uniques par mois, des millions d'articles disponible en plus de 250 langues, d'après ComStor). Une malice qui souligne les failles de Wikipédia Mais d'après les étudiants qui ont rédigé l'essai, ce système de recherche de contenu est loin d'être infaillible, puisque chaque utilisateur peut s'auto proclamer expert de son domaine, et véhiculer des informations erronées, ou partiales. Pour démontrer les dangers de l'amateurisme et du manque de contrôle des informations circulant sur Wikipédia, les auteurs du livre ont procédé à une petite expérience sans répercussions concrètes, mais lourde d'enseignement. Les étudiants ont malicieusement modifié la fiche présentant leur professeur, en ajoutant à son profil la simple mention « champion de France du jeu de paume ». Quelques semaines plus tard, quelle ne fut par leur surprise - ou plutôt leur absence de surprise - en constatant que cette information facétieuse figurait bel et bien sur la petite biographie du romancier, suite à une conférence à laquelle il venait de participer. Renforcer la fiabilité des informations Bien entendu, cette expérience reste du domaine anecdotique, mais elle pointe du doigt la relative porosité de Wikipédia au vandalisme, à la dégradation d'articles, voire à la guerre d'opinions. Le livret énumère ensuite une série d'exemples d'informations modifiées sur Wikipédia. L'affaire ne fait pas rire dans les universités. Certains professeurs d'université considèrent Wikipédia comme leur « bête noire », allant parfois même jusqu'à interdire aux étudiants de le citer comme source. Réunis pour leur premier colloque, organisé fin octobre à la Cité des Sciences à Paris, la communauté française de Wikipédia n'a pas manqué de souligner la « nécessité de renforcer la fiabilité des informations de l'encyclopédie, cible de nombreuses critiques ces derniers mois ». En attendant, Wikipédia reste un outil de recherche utile, mais à manipuler avec précaution. (...)
(06/11/2007 17:27:09)Dell paye 1,4 Md$ pour EqualLogic, spécialiste du stockage iSCSI
L'offre de rachat du spécialiste du stockage en réseau EqualLogic pour 1,4 Md$ est la plus grosse opération de croissance externe jamais réalisée par Dell. EqualLogic est arrivé en 2001 sur le marché florissant du stockage en réseau. Son offre repose sur l'iSCSI, alternative aux approches SAN/ Fibre Channel traditionnelles. Dell compte à la fois intégrer les produits d'EqualLogic dans son offre de stockage PowerVault et continuer leur commercialisation sous leur nom actuel. En 2006, la société rachetée a réalisé un CA de 68 M$ assorti d'une perte de 4,3 M$. Si Dell paye aussi cher EqualLogic, c'est que cette société dispose du savoir-faire dont il rêve pour profiter de la forte croissance du marché du stockage. Les produits d'EquaLogic utilisent iSCSI, de plus en plus crédible face au Fibre Channel, et se démarquent par leur "intelligence". Ils se configurent rapidement et savent gérer le load balancing. En matière de virtualisation, EqualLogic aurait aussi tissé des liens privilégiés avec XenSource. Il promet aussi de l'Ethernet 10 Gbit/s - iSCSI pour la mi-2008. Le stockage, une activité en forte croissance chez Dell Le stockage était jusqu'à présent un des points faibles de Dell face à HP, IBM et Sun, les trois autres principaux fournisseurs de serveurs. Cette activité, qui ne représente encore que 4% de son chiffre d'affaires, connaît toutefois une forte croissance, de l'ordre de 20%, qui lui permet d'atteindre un chiffre d'affaires annuel de 6 000 M$ environ. Fin 2006, Dell avait été le premier à supporter Unified Data Storage Server 2003 de Microsoft, et, ce, dans une configuration mixte NAS / iSCSI. En septembre dernier, le constructeur avait par ailleurs dévoilé une offre de stockage en réseau ciblée sur les PME. Jusqu'à la reprise d'EqualLogic, Dell s'approvisionnait exclusivement en OEM chez EMC, fournisseur avec lequel il est lié par contrat jusqu'en 2011. Les investisseurs qui avaient misé sur EqualLogic ont préféré accepter l'offre de Dell plutôt que de poursuivre leur projet d'introduction en bourse dont ils espéraient retirer une centaine de millions de dollars. Certains d'entre eux estiment avoir multiplié par 20 leur mise d'origine. (...)
(06/11/2007 17:08:51)Trimestriels Sun : bonnes ventes sur les serveurs
Sun Microsystems vient de publier des résultats financiers en hausse pour le premier trimestre de l'année fiscale 2008 (clos le 30 septembre dernier). Si le chiffre d'affaires ne progresse que de 1%, à 3,22 Md$, par rapport à la même période de l'année dernière, le bénéfice net s'établit pour sa part à 89 M$, contre une perte de 56 M$ un an auparavant. La marge brute a grimpé de cinq points, à 48,5%. La société signe ainsi son quatrième trimestre consécutif « dans le vert », après avoir affronté quelques années de vaches maigres. Le fournisseur américain explique ce retournement de situation par deux facteurs : tout d'abord le succès commercial de ses serveurs haut de gamme ainsi que le succès public du système d'exploitation Solaris 10. D'autre part, la politique de réduction des coûts mise en place par Sun (impliquant la suppression de 4 000 emplois dans le monde) commencerait enfin à porter ses fruits. Sun Microsystems table sur une croissance de 1 à 5% pour l'ensemble de l'année fiscale 2008, et espère stabiliser sa marge brute aux alentours des 45%. (...)
(06/11/2007 17:03:49)Nick Van Wyk, la voie du changement pour Red Hat
L'arrivée de Nick Van Wyk au sein de Red Hat, en remplacement de Joanne Rohde, semblait assez anodine. Et pourtant le changement de titre de « vice-président exécutif en charge des opérations globales » à « vice-président senior en charge des opérations globales et de la transformation » pouvait mettre la puce à l'oreille des plus attentifs. Nick Van Wyk a en effet trois ans pour faire passer Red Hat d'une société tirant l'essentiel de ses revenus de sa distribution Linux pour serveurs à une « compagnie vendant des solutions et des services open source. » Et donc ayant plus d'une seule source de profit pour rester compétitive face à des concurrents comme Microsoft, IBM, SAP ou Oracle aux offres plus étoffées. Ce virage a déjà été amorcé lors du rachat de JBoss, et se poursuit dès aujourd'hui avec l'annonce d'un partenariat avec Sun autour de Java Developpement Kit (JDK). Celui-ci sera désormais intégré directement au coeur des prochaines versions de Red Hat Entreprise Linux (RHEL) et de Fedora. Ce qui permettra aux développeurs Red Hat de créer leurs propres versions de l'environnement Java mieux adapté à leur système d'exploitation, et donc faisant tourner plus rapidement les applications Java. Pour l'instant, le JDK sera mis à la disposition de la communauté Fedora, et c'est seulement lorsqu'une version stable sera disponible qu'il intègrera la distribution principale RHEL. Outre ces développements sous Java, les transformations que doit apporter Nick Van Wyk restent pour l'instant mystérieuses. Tout au plus se définit-il comme étant dans une phase d'observation des processus de la compagnie : gestion du personnel, rapport avec les partenaires, gestion des abonnements, support technique. (...)
(06/11/2007 16:10:17)Une administration américaine sur deux utilise des logiciels libres
Plus d'une administration américaine sur deux a déployé des logiciels libres et 71% des responsables interrogés sont convaincus de l'intérêt de le faire. Tels sont les principaux résultats d'une enquête conduite à la demande de la Federal Open Source Alliance dont les principaux membres sont Intel, HP et Red Hat. 218 décideurs ont répondu au questionnaire. Les motivations et résultats cités sont dans la droite ligne des autres enquêtes favorables aux logiciels libres. A noter, toutefois, deux séries de réponses intéressantes. La première porte sur la sécurité. Elle est à la fois la principale motivation (34%) de ceux qui ont choisi des solutions en Open Source et aussi la principale motivation (40%) de ceux qui n'ont pas déployé du code libre... Enfin, il convient de souligner le taux de satisfaction de 97%, exprimé par ceux qui ont déployé du code ouvert. Un taux nettement au-dessus des résultats habituels. (...)
(06/11/2007 15:59:49)L'Agence nationale de la recherche fait le point sur ses projets en sciences et technologies
Du 5 au 8 novembre 2008, le monde de la recherche se donne rendez-vous à la Cité des Sciences et de l'Industrie de la Villette à Paris. Le colloque Stic 2007 (Sciences et Technologies de l'Information et de la Communication), organisé sous l'égide de l'Agence nationale de la recherche (ANR), dresse un état des lieux de 300 projets de recherche en Stic, parmi les 550 sélectionnés entre 2006 et 2007. Ces derniers sont regroupés selon plusieurs catégories : les télécommunications, les technologies logicielles, l'audiovisuel et les multimédias , le calcul intensif et la simulation, la robotique et les systèmes interactifs cognitifs, les architectures du futur, les masse de données et connaissances, et enfin la sécurité informatique. Le budget dédié à la Recherche et à l'Enseignement supérieur (23,9 Md €) se verra complété d'une enveloppe de 320 M€, permettant ainsi de financer plus de 500 projets. Le plan de financement consacré aux sciences et techniques de l'information et de la communication devrait également être gonflé de quelque 120 M€ supplémentaires L'ANR a également livré les nouvelles orientations de son programme pour 2008-2010, sur les recommandations de son comité sectoriel pour les technologies de l'information, présidé par Gérard Roucairol, directeur scientifique de Bull. Ainsi, pour 2008, qui sera sa quatrième année de programmation, l'ANR souhaite faire évoluer ses appels à projets dans le domaine des sciences et technologies, en définissant six nouveaux programmes : réseaux du futur et nouveaux services, contenus et interaction, conception et simulation, domaines émergents et modélisation mathématique des systèmes complexes. (...)
(06/11/2007 15:37:15)MS TechEd 07 : Microsoft veut synchroniser toutes les données
Ce sont les développeurs, éditeurs indépendants, et les partenaires de Microsoft qui décideront du sort de Sync Framework. Lancé hier en version CTP (Community technology preview), Microsoft Sync Framework (MSF) fournit un ensemble d'outils facilitant la mise en oeuvre de solutions de synchronisation des données entre diverses sources. Toutefois, MSF ne sera vraiment alléchant que lorsque le Sync Framework Runtime, le moteur d'exécution, aura été porté sur d'autres plateformes que celles de Microsoft, en particulier sur les smartphones. Microsoft encourage donc son écosystème présent toute cette semaine au TechEd de Barcelone à s'emparer de son offre. « Le Sync Framework est la glu pour le logiciel plus services », explique Philip Vaughn, responsable du groupe réplication et synchronisation de données chez Microsoft, faisant allusion à la stratégie S+S de l'éditeur. L'idée de MSF est en effet de pouvoir accéder à ses données partout, depuis n'importe quel appareil ou service. Pour parvenir à ce résultat, il faut des connecteurs spécifiques à chaque source de données (Microsoft les appelle des « providers ») et au moins un agent effectuant les opérations de synchronisation. Parmi ces opérations, il y a la prise en charge du réseau et de ses topologies, l'évaluation des données à synchroniser, ou encore la détection et éventuellement la résolution de conflits. Microsoft promet une faible empreinte réseau En revanche, MSF ne se préoccupe pas de sécuriser les échanges. En la matière, Philip Vaughn recourt à une image très utilisée outre-Atlantique : « Nous nous tenons sur les épaules des géants ». En d'autres termes, il appartient à d'autres équipes de mettre en place des protocoles sécurisés ou des outils d'authentification auxquels les 'providers' se conformeront. De même, aucune compression spécifique n'est utilisée, car Microsoft souhaite que sa solution puisse être utilisée quelque soit le protocole employé. Mais Philip Vaughn explique que le recours à des métadonnées sur les données à synchroniser permet de ne faire transiter par le réseau que ce qui est strictement nécessaire. Microsoft cite deux grands scénarios d'utilisation de MSF. D'abord les applications occasionnellement connectées : le Sync Framework fournit alors des outils permettant aux développeurs de recréer simplement le lien qui peut exister entre Outlook et Exchange (en l'occurrence pour les emails) pour tout autre duo d'applicatifs. Ensuite, la collaboration pair à pair, lorsque deux appareils vont échanger des données sans qu'une application serveur, centralisée, ne soit impliquée. Il faut alors que le runtime soit embarqué sur au moins un des clients. Les développeurs appelés à multiplier le nombre de connecteurs Le Sync Framework devrait ainsi remplacer à terme tous les mécanismes de réplication qui existent aujourd'hui, sur les smartphones Windows, par exemple, ou dans Vista. Au cours d'une session technique, Philip Vaughn a montré avec quelle simplicité on pouvait synchroniser deux répertoires. La réplication de fichiers et de dossiers, ainsi que le support des partitions FAT et NTFS, et celui des mémoires flash font en effet partie des capacités initiales du Sync Framework. MSF supporte deux autres modes de connexion aux données : ADO.Net, le mode d'exposition des données par une base SQL Server, et SSE (Simple sharing extensions), qui permet d'utiliser le protocole RSS pour diffuser des données depuis un site Web. D'autres 'providers' devraient être réalisés par les équipes de Microsoft et placés sur MSDN à la disposition des développeurs, mais Philip Vaughn espère que ces derniers multiplieront les connecteurs. Côté produits, le runtime tourne sur la majorité des plateformes Windows, via .Net... en attendant que des partenaires annoncent l'avoir porté sur d'autres plateformes. (...)
(06/11/2007 15:12:01)Integration World : Software AG embarque la BI de Cognos dans webMethods
Software AG veut ajouter des fonctions d'analyse décisionnelle en temps réel à sa plateforme de BPM, BAM et BRM. C'est que concrétise l'éditeur allemand en annonçant, à l'occasion d'Integration World 2007, la conférence des utilisateurs de webMethods, qu'il fournira les outils décisionnels de Cognos en standard avec les solutions de webMethods. Selon les termes de l'accord, les modules de reporting, de tableaux de bord et d'analyse de Cognos 8 BI seront intégrés dans les prochaines versions des produits webMethods. Selon l'éditeur, l'objectif est de combiner BAM (Business activity monitoring, supervision des activités métiers), BPM (Business process management, gestion des processus métiers) et BRM (Business rules management, gestion des règles métiers) à une brique décisionnelle qui doit confronter en temps réel les données de l'entreprise à l'ensemble des outils de monitoring. En clair, rapprocher les données de production des données historiques de l'entreprise pour "intervenir au moment de vérité", résume Peter Küprick, directeur des produits webMethods. Et d'ajouter : "Le BPM dirige, le BAM détecte, le BRM coordonne et enfin le décisionnel contextualise en amont l'ensemble", tout en expliquant qu'il s'agit là d'offrir une vision de bout en bout de la chaîne de processus de l'entreprise. (...)
(06/11/2007 14:49:13)Google annonce officiellement Android, sa plateforme mobile
Les ambitions de Google dans le domaine de la téléphonie mobile n'étaient plus un secret et les rumeurs allaient bon train depuis un moment déjà. L'annonce d'une plateforme, baptisée Android, n'a donc pas vraiment étonné les acteurs du marché. Plus qu'un simple système d'exploitation, Android, du nom de la start-up rachetée par Google en aout 2005, regroupe des outils de développement et des API (interfaces de programmation). Conçue selon le modèle Open Source, Android invite donc les développeurs à venir enrichir le panel d'applications déjà disponibles pour le système d'exploitation de Google. A ce niveau rien de franchement étonnant : Gmail, YouTube, Google Agenda, Google Docs figureront parmi les premières applications disponibles pour Android. Le spécialiste de la publicité en ligne compte appliquer au monde de la mobilité les recettes qui ont fait son succès sur le Web. En d'autres termes, des publicités devraient être insérées dans les applications pour téléphones portables afin de rentabiliser le modèle économique. Les analystes plutôt sceptiques La confirmation de l'intérêt de Google pour le marché de la mobilité bouleverse bien entendu la donne mais elle laisse aussi les analystes du marché assez sceptiques. Le modèle Open Source, tout d'abord, pose certains problèmes en termes de sécurisation de la plateforme et de la confidentialité des données personnelles. Du côté du modèle économique, il n'est pas du tout certain que les utilisateurs apprécient de se voir imposer des publicités avant de pouvoir téléphoner ou de consulter un mail, surtout avec des abonnements facturés au débit ou à la durée. Enfin, Google marche clairement sur les plates-bandes d'éditeurs installés depuis longtemps sur le marché - Symbian et Palm - et de plus récents tels que Microsoft. Or, comme le rappelle IDC, il ne suffit pas d'avoir des ambitions et des moyens pour réussir sur le marché de la mobilité : Microsoft, dont le système est disponible depuis des années et qui a des accords avec 48 fabricants de téléphones portables et 160 opérateurs dans le monde, n'a vendu que 12 millions de téléphones équipés de ses logiciels cette année, dont seulement 10% sont des Smartphones. Création d'une alliance industrielle Avec le lancement d'Android, Google annonce aussi la création d'Open Handset Alliance, organisation qui regroupe des constructeurs de terminaux, fournisseurs de composants et des opérateurs mobiles, prêts à s'investir dans des téléphones équipés d'Android. De grands opérateurs, tels T-Mobile et Sprint aux Etats-Unis, mais également en Chine, au Japon, en Allemagne, en Italie et en Espagne, ont rejoint cette alliance. Mais est-ce le scepticisme affiché par les analystes qui explique l'absence de grands acteurs du marché tels que les deux plus grands opérateurs de téléphonie mobile aux Etats-Unis, AT&T et Verizon, le fabricant Nokia, ou encore Vodafone et Orange en Europe ? Pour l'heure on n'en sait guère plus sur la position de ces acteurs et il faudra attendre le second semestre 2008 pour voir les premiers téléphones basés sur Android destinés au grand public. (...)
| < Les 10 documents précédents | Les 10 documents suivants > |