Flux RSS
R et D
956 documents trouvés, affichage des résultats 331 à 340.
| < Les 10 documents précédents | Les 10 documents suivants > |
(11/09/2009 12:39:27)
L'économie numérique française plaide sa cause devant les arbitres du Grand emprunt
Le Grand emprunt décidé par Nicolas Sarkozy suscite évidemment bien des convoitises dans les ministères et les différents secteurs de l'économie. A commencer par les acteurs du monde de l'informatique et du numérique, qui ont plaidé leur cause hier, jeudi 11 septembre, lors d'un séminaire organisé par Nathalie Kosciusko-Morizet, secrétaire d'Etat chargée de la Prospective et du Développement de l'économie numérique, à la Maison de la Chimie. De nombreux responsable politiques et représentants de l'industrie se sont efforcés de démontrer quel intérêt supérieur cela serait de leur confier de l'argent public pour l'investir dans les projets de NTIC qu'ils défendent, sous le regard amusé de Michel Rocard et d'Alain Juppé, qui président la Commission de réflexion sur les priorités stratégiques d'investissement et l'emprunt national. Même le Premier ministre François Fillon, en clôture de cette journée, les a appelés à « regarder de près les modalités de mobilisation des ressources de cet emprunt pour accélérer le déploiement du très haut débit sur notre territoire » [nous vous proposons en téléchargement ci-dessous des résumés et discours fournis par les services du ministère]. François Fillon : « Le numérique compte pour 40% des gains de productivité » Tous les acteurs de ce séminaire étaient d'accord pour convenir que l'investissement dans les grands projets de NTIC représente à la fois une nécessité, pour éviter d'élargir la fracture numérique, et un levier énorme pour la croissance et la compétitivité de l'économie française. « En Europe, le numérique est la source d'un quart de la croissance, a ainsi rappelé François Fillon. Il compte pour 40% des gains de productivité. » De même, en introduction de cette journée, Paul Hermelin a concaténé des chiffres de diverses sources pour affirmer ce potentiel. Disposant étrangement d'un temps de parole d'un quart d'heure sitôt après le discours de bienvenue de NKM, le directeur général de Capgemini a ainsi rappelé que « les TIC ont 3 fois plus d'impact sur la productivité que les investissements hors TIC », et qu'elles génèrent une grande proportion d'emplois indirects : « 20 Md€ investis dans les TIC génèrent environ 800 000 emplois. » Autre exemple : « Entre 1995 et 2006, la croissance de la productivité aux Etats-Unis a été de 50% supérieure à celle de l'Europe, et on estime que deux tiers de cet écart sont imputables aux TIC ». Un facteur essentiel à ce gain en productivité venant de l'accroissement des possibilités de communication : « Une augmentation de 10 points du taux de couverture haut-débit d'un pays augmente sa croissance économique de 1,3 point. » Malheureusement, le reste de l'intervention du DG de Capgemini s'apparentait davantage à de la réclame pour son groupe ; ainsi cet appel à renforcer les initiatives TIC du secteur public, où Capgemini, a expliqué Paul Hermelin, dispose déjà de nombreux contrats et de fortes compétences... Plusieurs autres acteurs de l'industrie n'ont pas hésité non plus à prêcher pour leur paroisse, allant parfois jusqu'à, sinon la désinformation, du moins une présentation fortement subjective de la réalité. On aura ainsi appris que Mandriva est « à peu près » la seule distribution Linux qui tienne la route sur le poste de travail. Novell et Ubuntu, notamment, apprécieront. Malgré cet aspect quasiment inévitable dans un tel séminaire avec tant d'intervenants, la journée a permis de dégager des axes de travail et quelques consensus, notamment sur le déploiement du très haut débit, qui est apparu comme la pierre angulaire des efforts à fournir. Une loi pour couvrir 100% de la population en très haut débit [[page]] Pour Michel Mercier, ministre de l'Espace rural et de l'Aménagement du territoire, qui présidait la première table ronde de la journée, il s'agit d'un chantier obligatoire : « En France, seuls 25 000 foyers français sont équipés de la fibre, contre 1,5 million en Europe. [...] On ne peut pas laisser la population et les PME de 80% du territoire ne pas bénéficier d'accès au très haut débit. » D'autant, comme l'a souligné le président de l'Association des maires de France, que le développement des services en ligne permettrait de pallier « la disparition des services publics dans certaines communes ». Bruno Retailleau, sénateur de Vendée et rapporteur de la proposition de loi relative à la lutte contre la fracture numérique, a abondé, expliquant que l'objectif à terme était de couvrir 100% de la population en très haut débit, que ce soit au travers de la fibre optique, du satellite, des technologies sans fil de 4e génération... Une facture de 40 Md€ pour couvrir la France en très haut débit Or, comme l'a honnêtement rappelé Yves Le Mouel, président de la Fédération française des télécommunications (et donc représentant des opérateurs sur cette table ronde), l'investissement demandé représente « un saut quantique » par rapport au déploiement de l'ADSL (selon Augustin de Romanet, directeur général de la Caisse des dépôts et consignations -CDC, la facture pour le déploiement du haut débit se montait à 2 Md€, alors que celle du très haut débit devrait avoisiner les 40 Md€). Les opérateurs sont des entreprises privées, a indiqué Yves Le Mouel : ils ne seront donc prêts à relever ce défi que dans les zones d'une certaine densité urbaine, gage d'une rentabilité future de leurs investissements. Voilà pour la zone 1 (les grandes agglomérations, soit 5 millions de Français environ). Pour les zones 2 (villes de quelques milliers d'habitants) et 3 (le reste du territoire), il faudra, a-t-il expliqué, « faire preuve de beaucoup de lucidité ». Autrement dit, envisager « des investissements publics ou mixtes ». La CDC pourrait aider au financement d'opérateurs mutualisés dans les zones moyennement denses Jean-Ludovic Silicani, président de l'Arcep (Autorité de régulation des communications électroniques et des postes), a indiqué que cette dernière émettrait ses recommandations en la matière d'ici à la fin de l'année. Néanmoins, il appelle déjà les opérateurs à considérer les choses sous l'angle d'un déploiement sur l'ensemble du territoire, plutôt que d'une façon séquencée, en commençant par la zone 1 (et sous-entendu en repoussant les autres chantiers aux calendes grecques). Augustin de Romanet penche lui aussi pour une solution ne laissant aucune zone dans l'ombre. Fort de l'expérience de la CDC dans le financement du déploiement du haut débit, son DG estime qu'il faudrait « mener des opérations coup de poing » dans la zone 2, associant des opérateurs privés à la puissance publique. En effet, a-t-il expliqué, seule cette zone pose vraiment problème. La zone 1 est suffisamment dense pour laisser faire le marché et le jeu de la concurrence. Tandis que la zone 3 ne présentant qu'une « rentabilité socio-économique », il faudra obligatoirement une subvention des pouvoirs publics, voire un système de délégation comme celui mis en place pour l'ADSL, pour amener la fibre optique ou du très haut débit mobile. Michel Rocard : « Le Grand emprunt ne pourra pas l'être par son montant » [[page]] En zone 2 en revanche, les collectivités locales sont « trop riches pour recevoir des aides, mais trop pauvres pour investir elles-mêmes sur le long terme », a remarqué Augustin de Romanet. Il envisage donc, pour cette zone, une mutualisation entre opérateurs, « avec un éventuel concours de la puissance publique, afin d'éviter les doublons, et de favoriser la transparence financière ». Cela nécessiterait un petit sacrifice de la part des opérateurs, mais aurait le mérite, a-t-il dit, d'augmenter rapidement le nombre de clients potentiel pour des services en très haut débit : « la valeur d'un réseau est égale au carré du nombre de ses membres ». Un Plan Cloud computing pour remplacer le Plan Calcul ? Par comparaison, la deuxième table ronde, consacrée aux logiciels et services, a paru plus faiblarde. Même si Marc Simoncini, PDG de Meetic, a mis les pieds dans le plat dès le début en disant qu'il ne servait à rien de réfléchir à de nouvelles infrastructures si on n'y associait pas des services, de préférence offerts par des sociétés hexagonales. « Si le gouvernement aide le très haut débit pour que Google ait plus de trafic, qu'eBay vende plus d'armoires et Amazon de livres, cela a peu d'intérêt. » Pour lui, le Grand emprunt devrait venir renforcer les actions déjà en place pour favoriser la création d'entreprises et l'innovation. Mais sur quels sujets ? Didier Lamouche, PDG de Bull, qui se disait fier que son entreprise ne soit plus associée au Plan calcul (lancé par le Général de Gaulle pour assurer l'indépendance informatique de la France et de l'Europe) mais à des serveurs de pointe, a illico proposé un projet d'implantation de centraux informatiques en Europe... pour assurer son indépendance informatique dans le monde du cloud computing. Président du pôle de compétitivité Cap Digital, Henri Verdier a intelligemment complété cette table ronde, en expliquant que les acteurs français avaient tout intérêt à s'orienter vers des services et des technologies « où il n'y a pas encore de position inexpugnable », des domaines en devenir comme l'Internet mobile, l'Internet des objets, les technologies vertes, la e-santé, les transports intelligents... Le Grand emprunt favorisera les projets ayant une dimension développement durable Face à tous ces projets et ces velléités de recevoir des subsides publics, Alain Juppé et Michel Rocard se sont employés à rafraîchir les ardeurs et temporiser. « Le Grand emprunt ne pourra pas l'être par son montant, car les finances publiques ne le supporteraient pas », a ainsi expliqué l'ancien Premier ministre socialiste. En outre, il devra « être unique, non répétitif », car cela « créerait une dérive catastrophique ». Autrement dit, même si Michel Rocard reconnaît qu'il faut essayer de réparer les dégâts causés par « une gestion à l'économie depuis 15 ans » sur l'innovation, il a précisé qu'il y avait « une concurrence sérieuse » et donc pas d'argent pour tout le monde. Le système éducatif français, par exemple, pourrait bénéficier de subsides : « Il faut relancer le savoir en France, sortir les universités de leur médiocrité. » Autre concurrent important : tout ce qui a trait à la « croissance verte ». Comme l'a souligné Alain Juppé : « Il faut stimuler la croissance, mais une croissance différente. Faut-il l'appeler verte ? Durable ? Sobre ? » En tout cas, l'ancien Premier ministre a indiqué que pour être éligibles, les projets présentés à la Commission devraient prendre en compte cette dimension. Or, a-t-il ajouté, « le numérique est au coeur du débat : vous avez toutes vos chances ». Lui non plus n'a pas voulu donner d'indications sur le montant de l'Emprunt. Il a toutefois précisé que s'il devait consacrer 35 ou 40 Md€ à la couverture totale du territoire en très haut débit, il ne resterait plus grand-chose de l'Emprunt... (...)
(08/09/2009 16:15:06)Le cloud computing modifiera radicalement les applications pour mobiles, selon ABI Research
Les utilisateurs de téléphones mobiles abonnés à des applications en ligne (modèle Saas, software as a service, avec des applications hébergées dans le cloud) vont passer, dans le monde, de 42,8 millions en 2008 à 998 millions en 2012, selon le cabinet d'études américain ABI Research. Aujourd'hui, ils ne pèsent que 1,1% de l'ensemble des abonnés mobiles ; dans cinq ans, ils en représenteront presque 19%. Dans son étude « Mobile Cloud Computing », récemment publiée, ABI Research détaille les applications et les modèles qui devraient entraîner le développement de ce marché. Pour l'auteur de l'étude, Mark Beccue, ce sont les services de géolocalisation qui vont tirer la demande d'ici à 2010, notamment les solutions de navigation et de cartographie. Selon lui, 60% des abonnés mobiles à une application cloud accéderont à des fonctions de géolocalisation. Mais l'analyste voit apparaître d'autres catégories, plus originales. Il cite le fabricant de serrures Schlage dont le service LiNK permet à ses abonnés de vérifier à distance le verrouillage de leur porte d'entrée, de contrôler leur système de chauffage, leurs caméras de sécurité et leur éclairage à partir d'un PC ou de leur téléphone portable. Un marché d'applications hébergées pour mobiles de 20 Md$ en 2014 ABI Research s'attend à ce que les principaux opérateurs de PaaS -platform as a service- que sont Amazon (avec AWS), Google et Salesforce.com (avec Force.com), commercialisent leur offre de façon beaucoup plus agressive à partir de 2010. Pour Mark Beccue, le développement des services en ligne pour mobiles devrait supplanter le téléchargement d'applications. L'analyste note que l'engouement suscité par l'iPhone a favorisé l'ouverture de boutiques en ligne offrant des applications à télécharger. Mais ces logiciels requièrent souvent des terminaux dotés de solides capacités, ce qui limite le marché potentiel. Dans cette perspective, une architecture reposant sur des logiciels hébergés en cloud changera radicalement la façon dont les applications mobiles vont être développées, achetées et utilisées. ABI Research estime que l'actuel modèle pourrait être remplacé d'ici cinq ans, créant un marché que le cabinet évalue à quelque 20 Md$ d'ici à fin 2014. Pour l'instant, les développeurs d'applications mobiles doivent choisir entre différents systèmes d'exploitation, souligne Mark Beccue : « Ils écrivent pour un seul OS ou doivent créer plusieurs versions de leurs logiciels pour les diverses plateformes. En développant pour le cloud, leurs applications ne s'exécuteront plus sur le terminal mais sur le serveur et une seule version suffira. » (...)
(25/08/2009 11:40:27)Le MIT imagine une nouvelle interface homme-machine sans souris ni écran
Peut-on faire plus simple qu'un clavier et une souris classique pour communiquer avec les ordinateurs ou surfer sur Internet ? Pour Pranav Minstry, étudiant du MIT (Massachussets Institute of Technology), la réponse est oui. Son interface homme-machine (IHM) - Sixth Sense (sixième sens en français) - permet de transformer n'importe quelle surface (mur, couverture de livrema, billet d'avion) en ordinateur pour se connecter à Internet. En pratique, elle regroupe trois objets courants : une webcam, un projecteur LED et un téléphone mobile pouvant surfer sur Internet. L'utilisateur porte ces trois objets autour du cou et des bandes de scotch colorées au bout de ses doigts pour que ceux-ci soient plus facilement identifiés par la webcam. Il peut ainsi dessiner dans les airs une arobase pour signifier qu'il veut accéder à une application Web ou représenter un rectangle à l'aide de ses deux mains pour signaler qu'il souhaite prendre une photo. Le vidéo projecteur projette alors la fonction demandée sur n'importe quelle surface à proximité. L'utilisateur va alors interagir avec elle en mimant du doigt un clic sur un bouton par exemple. Mieux, le prototype de Sixth Sense sait aussi reconnaître seul certains objets. Face à un livre, sans indication contraire de l'utilisateur, il va ainsi se connecter à Amazon.com pour afficher l'avis des lecteurs ou permettre de l'acheter en ligne. A la différence des autres systèmes existants de réalité augmentée (comme la console Wii de Nintendo ou le projet Natal de Microsoft), Sixth Sense est conçu à partir de produits déjà existants et peu chers (au total, le matériel utilisé coûte moins de 350 dollars et le capteur vidéo du téléphone peut faire office de webcam). S'il faut encore améliorer la reconnaissance visuelle pour se passer des scotchs, envisager une connexion sans-fil des différents éléments pour se passer de câblage, se débarasser du collier disgracieux d'appareils divers ete variés, et enfin ajouter une oreillette Bluetooth pour disposer de commandes vocales et d'un retour sonore, le projet est suffisamment avancé pour que Microsoft, Google ou HP envisagent de le mettre en production. Aucune date de commercialisation n'est cependant encore envisagée. (...)
(17/08/2009 16:33:14)IBM travaille sur des puces à base d'ADN
Versés depuis plus de 20 ans dans les nanotechnologies, les chercheurs d'IBM viennent de combiner deux techniques destinées à concevoir des puces dont la finesse de gravure ne dépasserait pas 6 nm. Les processeurs actuels utilisent une technologie en 35 nm, et les prochaines passeront seulement en 22nm. Le différentiel pourrait donc être important et devrait, selon IBM, permettre d'obtenir « plus de puissance dans un espace très petit mais aussi de réduire la consommation électrique et le coût de fabrication ». L'autre avantage de la découverte des chercheurs réside dans la possibilité d'utiliser des nano-composants avec des processus de fabrication traditionnels. Enficher des nanocomposants dans des origamis d'ADN La technique employée par IBM s'appuie sur les travaux de Paul Rothmund, du CalTech (California Institute of Technology), sur le pliage d'ADN (ou origami d'ADN). Ils provoquent une réaction entre de longs brins d'ADN viral et des brins courts de molécules synthétiques. Les brins les plus courts se comportent comme des agrafes qui viennent relier des paires de bases complémentaires et de cette façon, plient l'ADN viral. Les chercheurs obtiennent alors des « origamis d'ADN » qui ont la forme de carrés, de triangles ou d'étoiles nanométriques. Ceux-ci servent ensuite de circuits imprimés miniatures. En modifiant les brins courts d'ADN synthétiques utilisés comme accroches, les chercheurs sont en effet arrivés à les utiliser comme points d'attache, non pas pour des éléments d'ADN, mais pour des nanotubes ou des nanocomposants. L'espacement entre ces derniers ne dépasse alors pas 6 nm. L'avantage essentiel de la solution imaginée par IBM autour de nano-origamis utilisés comme des circuits imprimés, c'est qu'elle devrait permettre aux fabricants de se servir de leur processus actuels de production. (...)
(11/08/2009 16:22:16)Seedcamp Week : une formation accélérée à Londres à gagner pour 20 start-up
Du 21 au 25 septembre prochain, à l'University College de Londres, le programme Seedcamp Week offrira à vingt start-up IT présélectionnées l'opportunité de se frotter à des professionnels expérimentés du marché des nouvelles technologies. Quelque 400 investisseurs, 'serial entrepreneurs', développeurs, concepteurs de produits et spécialistes du marketing, mais aussi recruteurs, juristes et gestionnaires, dispenseront leurs conseils à ces porteurs de projets, principalement basés sur le modèle Internet. Au programme se succèderont cours magistraux et débats, entrecoupés de sessions individuelles plus personnalisées. A la fin de la semaine, les cinq start-up ayant présenté les projets les plus convaincants pourront recevoir jusqu'à 50 000 euros correspondant à une entrée de 5 à 10% dans leur capital. Leurs équipes accéderont ensuite à la deuxième phase du programme, un parcours de formation de trois mois à Londres pour poursuivre les échanges avec les professionnels rencontrés lors de la Seedcamp Week. L'objectif est de glaner le maximum de conseils pratiques pour concrétiser son projet de façon viable. Ce « suivi continu », ponctué de dîners, déjeuners thématiques et conférences, comportera deux colloques, Demo Day et Investor Day. Sans oublier le traditionnel déplacement dans la Silicon Valley californienne, promettent les organisateurs, Reshma Sohono, la PDG de Seedcamp, et Saul Klein, ancien vice-président de Skype, associé de l'investisseur Index Venture et co-fondateur du programme. Dépôt des dossiers jusqu'au 23 août L'édition 2008 de la Seedcamp Week avait distingué une start-up française, Stupeflix, dont le fondateur, Nicolas Steegmann, a bénéficié de ce parcours. Depuis le début de l'année, plusieurs Seedcamp d'une journée se sont déjà tenus à Paris, Tel Aviv, Varsovie, Londres, Helsingborg, Lubiana et Berlin, apportant une visibilité à quelque 150 start-up européennes. En février dernier, le mini Seedcamp parisien avait distingué : cinq projets Internet parmi lesquels une plateforme de gestion vidéo (Brainient), des services de gestion des courriels (Kwaga et MxM) et de favoris dynamiques (Wozaik). Les équipes souhaitant tenter l'aventure de Londres peuvent déposer un dossier de candidature sur le site de Seedcamp jusqu'au 23 août prochain. (...)
(11/08/2009 12:02:41)Google invite à tester sa nouvelle infrastructure de recherche
« Depuis plusieurs mois, un grand nombre de collaborateurs Google travaille sur un projet secret : une architecture de nouvelle génération pour le moteur de recherches. » Matt Cups et Sitaram Iyer, responsables du développement, ont maintenant décidé de dévoiler l'existence de ce projet, et ils invitent les utilisateurs à donner leur avis. Sans donner aucun détail technique, les deux ingénieurs expliquent que le nouveau système indexera davantage de pages, plus rapidement, et donnera des résultats plus pertinents. Toutefois, précisent-ils, dans la mesure où l'interface ne change pas, les utilisateurs lambda ne verront aucune différence. Seuls les développeurs et utilisateurs intensifs devraient être capables de remarquer des changements dans le classement des réponses. Google reste archidominant dans le classement des moteurs de recherche. Selon Comscore, Google a ainsi totalisé en juin 2009 65% des requêtes aux Etats-Unis, un chiffre stable, voire en légère augmentation par rapport à juin 2008. Cela le positionne loin devant Yahoo (19,6%) et Microsoft (8,4%). Toutefois, les concurrents évoluent. Microsoft a présenté Bing, qui devient le moteur utilisé par Yahoo, et de nouveaux entrants originaux arrivent, comme Wolfram Alpha. (...)
| < Les 10 documents précédents | Les 10 documents suivants > |