Flux RSS

Internet

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

5069 documents trouvés, affichage des résultats 2431 à 2440.

< Les 10 documents précédentsLes 10 documents suivants >


(02/02/2009 17:38:09)

Microsoft ouvre le code de son projet Web Sandbox

Un Web plus sûr, telle est l'ambition de Microsoft avec son Web Sandbox : un bac à sable isolant l'exécution du code des serveurs Web (mash-up, publicités, etc.) du reste de la machine. La technologie, indépendante des navigateurs Web, avait été présentée au public des développeurs Microsoft en octobre dernier. Elle est désormais accessible à tous, Microsoft ayant publié le code sous licence Open Source Apache. Encore en cours de développement, le projet Web Sandbox n'est pas encore prêt à être inclus dans des développements. Le but de cette ouverture de la part de Microsoft est surtout d'encourager des éditeurs tiers à utiliser cette technologie, afin d'en faire un standard « ouvert et interopérable », deux mots sur lesquels l'éditeur insiste beaucoup en ce moment. L'annonce de l'ouverture du code a d'ailleurs été faite par l'équipe de Sam Ramji, le grand ordonnateur de l'Open Source au sein de Microsoft. Il faut bien noter que, même s'il passe sous licence Apache, le projet reste un projet Microsoft et non un projet Apache - contrairement à Stonehenge (code pour le développement d'applications orientées services). (...)

(02/02/2009 17:09:35)

Création et Internet : Nicolas Sarkozy promet l'adoption de la loi en mars

Alors que le projet de loi Création et Internet végète depuis son examen par les sénateurs, en octobre, Nicolas Sarkozy entend redonner de l'élan à ce texte conçu pour endiguer le téléchargement illicite. Ce matin, à l'occasion de l'installation du conseil pour la création artistique, le chef de l'Etat a indiqué avoir « demandé que la loi Création et Internet soit définitivement adoptée en mars prochain ». La loi devrait ainsi être mise rapidement à l'ordre du jour de l'Assemblée nationale. Le président de la République a souligné que, face au piratage qui « détruit massivement », il ne « laissera pas piller les droits d'auteur ». Grâce à cette loi qui prévoit de punir les internautes coupables de téléchargement illicite en résiliant leur abonnement à Internet, Nicolas Sarkozy assure que le Web « pourra devenir enfin un fantastique lieu de création et d'échange, et non une jungle sauvage où il serait permis de piller les oeuvres des créateurs ». Le projet de loi, porté par la ministre de la Culture, Christine Albanel, a récolté de nombreuses critiques depuis les parlementaires européens jusqu'aux internautes, en passant par les FAI et les défenseurs des libertés individuelles. Pourtant, assure Nicolas Sarkozy, la loi « aura un effet très positif sur les comportements ». Le gouvernement a décrété l'urgence pour l'examen de ce texte. Chaque chambre ne procèdera par conséquent qu'à une lecture unique, une commission mixte paritaire étant chargée d'élaborer un compromis en cas de désaccord. (...)

(02/02/2009 16:37:58)

Les éditeurs de presse pessimistes sur la rentabilité de leurs sites

Pour le secteur de la presse, les sites Web paraissent plus comme un mal nécessaire que comme un nouveau vecteur pour toucher du public et faire des affaires. « Quand on en parle dans tous les pays, pris isolément, les sites sont tous déficitaires. Même le New York Times perd de l'argent. Le seul modèle payant au monde [et gagnant de l'argent] est le Wall Street Journal, mais ils fournissent une info très spécifique. Je pense que le site d'information, pris isolément, ne sera pas rentable. Je suis assez pessimiste. » Francis Morel, directeur général du groupe Le Figaro, s'exprimait ainsi le 30 janvier dernier, lors d'un colloque organisé par l'IPJ, Institut pratique du journalisme, qui à l'occasion de ses 30 ans souhaitait explorer l'avenir de la presse et des journalistes à l'heure du Web 2.0. Pierre-Jean Bozo, président de 20 Minutes, confirmait ces propos : « Aujourd'hui, ce sont les bénéfices du papier qui compensent les pertes du Web. » Les représentants de LCI.fr, LePoint.fr ou encore LeParisien.fr confirmaient de leur côté la volonté de leur groupe respectif d'offrir un visage sur le Web, avec les moyens les moins élevés possible - la publicité en ligne ne compensant pas les frais - mais avec le meilleur référencement possible dans Google. "Le référencement Google, un nivellement par le bas" C'est en effet le moteur de recherche qui joue les arbitres dans la course à l'audience. « C'est vrai que nous sommes complètement dépendants du référencement Google, cela produit un nivellement par le bas. Et engendre un paradoxe : ce n'est pas celui qui sort un scoop qui est référencé, mais ceux qui le reprennent ! » s'est plaint Denis Carreaux, rédacteur en chef adjoint du Parisien.fr. Personne n'ayant de martingale, ni pour bien figurer dans le classement de Google, ni pour faire remonter les tarifs publicitaires, la conférence s'est achevée avec un certain pessimisme, à peine tempéré par le directeur général de Rue89.com, contre-exemple d'un média né sur la Toile et capable de vivre uniquement en ligne. Encore qu'il ait bénéficié d'une levée de fonds de 1,1 M€ et d'un gros buzz médiatique de la part des confrères... En savoir plus Le résumé de la conférence sur la presse en ligne et le « journalisme 3.0 » sur notre blog(02/02/2009 12:36:44)

Une erreur humaine paralyse Google pendant près d'une heure

« Ce site risque d'endommager votre ordinateur ». Samedi 31 janvier, les internautes qui ont effectué des requêtes sur Google ont invariablement obtenu des résultats frappés de cet avertissement. A en croire le moteur de recherche, tous les sites Internet - quels que fussent leur objet et leur origine géographique - présentaient le risque de contenir un malware. Et pas question de braver l'avertissement de Google : en cliquant sur les résultats des recherches, les utilisateurs aboutissaient sur une page leur proposant invariablement de modifier leurs critères, de sélectionner un autre site ou de consulter le site StopBadware.org, qui liste les sites malveillants. De fait, vers 14h30 (heure de Paris), l'ensemble des sites Web était inaccessible à partir de l'hégémonique moteur de recherche. Rapidement, Google a réagi à ce dysfonctionnement. Sur son blog officiel, le moteur a ainsi confessé qu'il s'agissait « tout simplement d'une erreur humaine ». Dans un premier temps, Google a reporté la faute sur le site StopBadware.org, qui lui fournit une série de critères permettant de dresser une liste des sites dangereux. Mais, contrairement à ce que Google a indiqué, StopBadware.org ne lui communique pas un catalogue d'URL à placer en liste noire. « Google génère sa propre liste », explique le site injustement mis en cause, pour dissiper tout malentendu. Dans la foulée, Google a rectifié le tir en expliquant que l'erreur prenait sa source dans une manipulation malheureuse. Dans la liste noire des sites malicieux établie par le moteur, une main maladroite aurait en réalité coché l'URL « / », contribuant à y placer l'ensemble des pages Web recensées par Google. Rapidement débusquée, la défaillance a été corrigée en une quarantaine de minutes. Google a félicité ses équipes pour avoir mis le doigt sur l'origine du problème et a « présenté [ses] excuses à tous ceux qui ont été gênés (...) ainsi qu'aux propriétaires de sites dont les pages ont été injustement étiquetées. Nous allons enquêter méticuleusement sur cet incident et mettrons en place des moyens de vérification plus solides pour empêcher que cela se reproduise. » (...)

(30/01/2009 17:07:07)

Google va proposer des outils de mesure de la qualité de connexion

Google annonce la mise à disposition d'outils de mesure de performance des accès Internet. Réunis sur le site des Measurement Lab (M-Lab), ils sont vocation à permettre à chacun de mesurer les différents aspects de la qualité de service de leur FAI. Les outils de mesure de la vitesse de connexion existent depuis longtemps, mais Google tente de se distinguer sur trois points : l'ouverture de son projet à tous, la mise à disposition de serveurs test aux Etats-Unis et en Europe et la possibilité de mesurer la qualité de service dans le détail. Mise en avant, l'ouverture du projet signifie qu'il est ouvert à tous ceux qui veulent contribuer à l'évolution des outils et que ses ressources sont accessibles par tous les internautes. Un discours "altruiste" qui se traduit ensuite par la promesse que la mise à disposition de 37 serveurs, de part et d'autre de l'Atlantique, permettra de sonder l'état de sa connexion tous azimuts. Enfin, Google proposera un 'plus' technique : la mesure des performances en fonction de différents critères (protocoles, type d'applications, zones géographiques). Pour le commun des mortels, cela signifie la capacité de s'assurer que son FAI ne bride pas BitTorrent et ses besoins impérieux de "partage de fichiers". Il faudra attendre un peu pour apprécier la pertinence des outils du M-Lab. D'une part, Google les a annoncés avant de les avoir déployés en Europe et, d'autre part, les accès aux Etats-Unis croulent sous la demande. (...)

(30/01/2009 15:58:42)

Annuels Amazon : Le cybermarchand se joue de la crise

Dans un contexte économique défavorable à la majorité des revendeurs - qu'ils officient en boutique ou sur le Web - Amazon détonne en présentant des résultats impressionnants pour le compte de son 4e trimestre 2008. Le cybermarchand rapporte ainsi un chiffre d'affaires en hausse de 18% sur un an, à 6,7 Md$, marquant la meilleure période de fin d'année de l'histoire du groupe. La croissance des ventes aurait même pu être plus élevée (Amazon évoque un taux de 24%) si les effets de change avaient été moins défavorables. Les ventes de livres, disques et vidéos - qui constituent l'activité originelle d'Amazon - progressent de 9%. Mais c'est surtout dans le domaine des produits électroniques que l'e-commerçant réalise la plus belle envolée : la valeur des ventes dans ce secteur bondit de 31%. Le bénéfice net, sur les trois derniers mois de l'année, croît de 9%, pour atteindre 225 M$. Cette somme, tout comme le chiffre d'affaires, dépasse largement les attentes des analystes. « Nous restons concentrés sans relâche sur le service aux consommateurs, en proposant des prix bas, un large choix et des frais d'expédition offerts », explique le PDG, Jeff Bezos, qui se félicite par ailleurs de « la demande particulièrement élevée » pour Kindle, l'e-book conçu par Amazon. En dépit de ces indicateurs largement dans le vert, Amazon est néanmoins contraint de faire état d'une marge opérationnelle en léger repli : alors qu'elle était de 4,8% au quatrième trimestre 2007, elle ne s'élève qu'à 4,1% un an plus tard. Sur l'ensemble de l'exercice 2008, Amazon a vu ses revenus progresser de 26%, à 19,17 Md$. Le bénéfice net, quant à lui, bondit de 36%, à 645 M$, au-dessus des attentes des observateurs. Pour le premier trimestre de son exercice 2009, le cybermarchand table sur un chiffre d'affaire entre 4,53 Md$ et 4,93 Md$, et un bénéfice dans la fourchette 125 M$-210 M$. (...)

< Les 10 documents précédentsLes 10 documents suivants >