Flux RSS

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

108538 documents trouvés, affichage des résultats 12011 à 12020.

< Les 10 documents précédentsLes 10 documents suivants >


(12/02/2009 16:38:26)

Sun sort la version mobile de sa technologie de client riche JavaFX

Ouf, Sun sera prêt pour le Mobile World Congress de Barcelone, qui ouvrira ses portes le 16 février prochain : le constructeur a même devancé l'appel de quelques jours, et présenté la version mobile de JavaFX, sa technologie de client riche (RIA, Rich Internet application). Présenté début décembre, JavaFX n'avait guère soulevé l'enthousiasme, comparé aux technologies de RIA existant déjà, comme celles de Microsoft (Silverlight), Adobe (Flex/AIR) ou Google (GWT). Néanmoins, Sun compte sur l'énorme base installée de Java, tant du point de vue des clients que des développeurs. Du côté des mobiles, par exemple, Sun explique que la plateforme Java Mobile Edition (Java ME) est installée sur 2,6 milliards de mobiles. Et le Californien indique que plusieurs fabricants et opérateurs, comme Sony Ericsson, LG Electronics et Orange, soutiennent son initiative. (...)

(12/02/2009 16:28:30)

Techdays'09 : Microsoft explique Azure en détail

C'est l'inconvénient avec les concepts à la mode : lorsqu'une technologie s'en réclame, tout ou presque peut être dit pour la définir, les notions de 'cloud' et de 'Saas' (Software as a service) se mélangeant allègrement. C'est ce qui est arrivé avec Azure, le « Windows dans les nuages » de Microsoft, dévoilé en octobre dernier et actuellement dans sa phase 'preview'. Si bien que les développeurs, mais aussi des décideurs IT et des administrateurs systèmes se sont pressés dans les sessions consacrées à Azure lors des Techdays, 3 jours de conférences gratuites organisées par Microsoft France, et auxquelles se sont inscrites près de 16 000 personnes, indique l'éditeur. L'une des sessions sur Azure, animée par deux architectes de Microsoft France, Stève Sfartz et Régis Mauger, reprenait ainsi tranquillement les fondamentaux de ce qu'est, ou n'est pas, Azure. Un distinguo à opérer entre les services Azure et la plateforme Azure D'abord, il faut distinguer la plateforme Azure des services de la plateforme Azure. La première est « un système d'exploitation dans le nuage », qu'il convient de voir comme « une troisième plateforme de déploiement, après la plateforme client (desktop/mobile) et la plateforme serveur ». Stève Sfartz a d'ailleurs insisté sur cette continuité: « C'est un continuum, vous restez dans un environnement de développement connu. » A côté de ce Windows Azure - l'offre de 'cloud computing en tant que telle -, figurent des services complémentaires, apportés des applicatifs Microsoft hébergés : la manipulation de données avec des services SQL Server, par exemple, ou le transactionnel avec des services Biztalk. Le fait d'avoir proposé en même temps ces services applicatifs en ligne - qui s'apparentent au Saas - a largement contribué à la confusion initiale. Le déploiement dans Azure repose sur le téléchargement de deux fichiers La plateforme Azure - sans ces services - est donc un environnement de déploiement d'applications créées avec Visual Studio, l'atelier de développement de Microsoft, dûment secondé du SDK (kit de développement) Azure. Une fois que le développeur a créé son compte dans Azure, la publication des programmes dans ce Windows hébergé est simplissime : l'outil crée deux fichiers, un package de l'application et un fichier de configuration XML, qu'il suffit de télécharger depuis la page d'accueil de son compte Azure. Nul besoin de se préoccuper, lors de la création du programme, du fait que cela tournera sur une machine virtuelle, ou des capacités de montée en charge. « La gestion des ressources est transparente pour vous », explique Régis Mauger. Tout est géré par ce que Microsoft appelle « la fabrique ». C'est elle qui alloue les capacités (en fonction du nombre d'instances déterminé dans le fichier de configuration), gère l'équilibrage de charge, la récupération en cas d'incident, la réplication de données... « Votre code sera capable de supporter la charge, quelle qu'elle soit » [[page]] La version de prévisualisation d'Azure permet aujourd'hui de monter jusqu'à deux instances ; dans la version finale, l'éditeur du logiciel déterminera librement le nombre d'instances dont il pensera avoir besoin - sachant que cela pourra évoluer à la hausse ou à la baisse. « Votre code sera capable de supporter la charge, quelle qu'elle soit », assure-t-on chez Microsoft. La seule contrainte sera la tarification. Celle-ci n'est pas encore finalisée, mais on sait déjà que comme toute offre de cloud, le coût grimpera en fonction des ressources utilisées. D'où l'intérêt, soulignent les architectes, de tout de même bien optimiser le code, pour qu'il consomme le moins de ressources possibles. L'application tournant dans Azure dispose de sa propre URL (avec une terminaison en cloudapp.net, qui peut être masquée à l'aide d'une redirection), et peut communiquer avec d'autres services accessibles en ligne, grâce aux protocoles Soap ou Rest. Des tables, des queues et des Blobs dans le « cloud storage » d'Azure Les données que l'application doit manipuler sont stockées dans le « cloud storage » d'Azure, qui peut prendre trois formes : des tables, des files d'attente de messages et des blobs (Binary large objects, containers pour stocker de gros fichiers binaires, comme des photos ou des vidéos). Chacun de ces formats dispose d'une URL distincte, permettant au développeur d'y accéder librement. Quelques outils, dont un est fourni en guise d'exemple dans le SDK d'Azure, donnent la possibilité de manipuler plus facilement ces données (dont le total est limité à 50 Go dans la 'preview'). Des traitements sur ces données peuvent être effectués de façon asynchrone, dans le nuage, « l'équivalent d'un traitement batch », précise Stève Sfartz. La grosse difficulté aujourd'hui concerne le débogage des applications. Certes, Azure dispose d'un mode 'préproduction', pour y faire tourner une application avant de la mettre en production, mais on ne peut y déboguer un programme. Il faut donc faire le maximum de tests en local, sachant que le SDK reproduit en local la « fabrique ». Dans ce cas, les données sont stockées dans une base SQL Express, mais il est possible de les charger dans Azure, et d'utiliser un outil tiers comme Fiddler pour examiner les flux, afin d'identifier les points de l'application posant problème. Autre limitation imposée aux développeurs : dans la mesure où Azure s'appuie sur la version 7 du serveur Web IIS de Microsoft, le travail de conception doit s'effectuer sur Vista ou Seven, XP n'étant pas compatible avec IIS 7. Au final, les choses sont donc plutôt claires, mais cela pourrait se complexifier à l'avenir, avec le support de langages natifs, et la possibilité de déployer dans Azure ses propres machines virtuelles. (...)

(12/02/2009 15:52:23)

Annuels Iliad : Free consolide sa place de deuxième FAI français

Avec l'arrivée de 1,3 million de nouveaux abonnés en 2008, le groupe Iliad, maison mère du FAI Free, fournit désormais un accès Internet à 4,2 millions de foyers français (+44,6%). Il doit 60% de cette hausse à la comptabilisation des 836 000 abonnés d'Alice, acheté en août dernier. 14 000 personnes, soit 1,6% des abonnés d'Alice ont quitté leur FAI lors de son rachat. Quant à la marque Free, elle atteint fin 2008 presque 3,39 millions d'abonnées, soit une hausse de 16,7%. Ce taux est nettement inférieur aux 27,5% enregistrés sur 2007/2008. Chez Free, le taux de dégroupage complet est passé de 81,5% fin 2007 à 85,6%. Chez Alice, il n'était que de 45% lors du rachat et atteint déjà 50,7%. Sur l'exercice, l'activité haut débit d'Iliad a généré un chiffre d'affaires de 1,53 Md€, en hausse de 30%. Le CA de Free (1,4 Md€) progresse de près de 19%. L'augmentation de la part des services optionnels (25% du CA grand public contre 22,4% en 2007) permet à Free de clore son exercice sur un revenu moyen par abonné mensuel (Arpu) de 36,9 € (+1,7%) en décembre. Chez Alice, l'Arpu progresse rapidement depuis le rachat, passant de 27 à 32 €. 25,5% de parts de marché dans l'ADSL Le rachat du FAI Alice à Telecom Italia, première opération de croissance externe d'Iliad, a permis à celui-ci de réaffirmer sa position de premier opérateur alternatif, derrière Orange, avec une part de marché qui est passée de 19,7% fin 2007 à 25,5% fin 2008. Une place menacée un temps par le groupe né du rapprochement de SFR, Neuf Cegetel, Club Internet et AOL France. L'essoufflement du rythme de recrutement de nouveaux abonnés au quatrième trimestre 2008 (100 000, -23% par rapport au quatrième trimestre 2007) semble être considéré par la direction du groupe comme une tendance à long terme. En effet, Iliad vise les 5 millions d'abonnés à la fin 2011, soit une augmentation de 19% sur deux ans. Iliad a aussi confirmé sa candidature pour l'obtention de la quatrième licence de téléphonie mobile. Sur le dossier de la fibre optique, le groupe s'est cantonné à indiquer qu'il confirmait vouloir atteindre un taux de couverture de 4 millions de foyers en 2012. Ce qui ne veut pas dire grand-chose. (...)

(12/02/2009 15:26:00)

Squid Solutions lève 3 M d'euros sur sa technologie d'analyse des données clients

L'éditeur français Squid Solutions, spécialisé dans la modélisation des données clients, vient de lever 3 M€ pour poursuivre son développement. Son logiciel Nautilus lui permet d'analyser d'importants volumes de données gérées dans les datawarehouses et d'établir des modèles prédictifs pour des besoins métiers, dans des délais sensiblement réduits par rapport aux cycles habituels. A partir de cet outil, Squid Solutions a élaboré un modèle économique qui ne repose pas sur la vente de licences, mais sur une offre de services en mode projet. Celle-ci s'appuie sur Nautilus et sur l'expertise développée par l'éditeur autour de la modélisation de données métiers. Ce modèle, la technologie associée et l'équipe dirigeante ont convaincu les investisseurs, Neptune Technologies et Banque de Vizille, qui ont engagé les 3 M€ sur leurs capitaux propres. Holding familiale, Neptune Technologies est un investisseur industriel qui étend maintenant ses prises de participation aux structures innovantes. Avec Banque de Vizille, qui mise sur des secteurs émergents, l'objectif est d'investir dans la durée pour accompagner la croissance de l'entreprise. Squid Solutions a été créée en 2004 par Adrien Schmidt, l'actuel PDG, Serge Fantino, directeur technique, et Grégoire Pauty, directeur des ventes. Tous trois ont fait leurs armes dans l'analyse des données clients chez SLP Infoware, un éditeur français qui s'était focalisé sur la gestion de l'attrition (fuite des clients), en particulier pour les opérateurs de téléphonie. Il s'agissait alors de détecter dans les bases clients les profils susceptibles de résilier leur abonnement. « Nous y avons acquis une connaissance métier opérationnelle », relate Adrien Schmidt. Créer des jeux de données de façon très rapide Au-delà de l'efficacité du datamining pour donner de l'information aux responsables métiers, les trois fondateurs établissent l'importance de la préparation des données. « Nous avons alors créé des datamarts en fonction des besoins projetés du métier, ce qui permettait, par exemple, de construire des modèles prédictifs des clients susceptibles de partir. Toutefois, en cas de modification de certains paramètres marchés, comme la sortie d'un nouveau téléphone portable, il n'était pas possible d'adapter le modèle dans un délai raisonnable. Il fallait plusieurs mois pour créer un nouveau modèle. » De ce constat est née l'idée de développer une solution permettant de créer des jeux de données de façon très rapide. Démarrant une SAS (société par actions simplifiée) avec 37 000 euros, les trois fondateurs ont spécifié et développé une solution pour répondre à des besoins métiers précis, qu'ils ont pu tester et prototyper sur les entrepôts de données de leurs clients. Dès 2005, le prototype de Nautilus est développé. La start-up est alors soutenue par l'incubateur Paris Innovation. Elle reçoit de Scientipôle Initiative un prêt d'honneur de 60 000 euros qui lui permet d'augmenter ses fonds propres et de présenter un dossier de financement à Oseo. 150 000 euros lui sont accordés, qui sont portés à 190 000 euros lorsque le projet est labellisé auprès du pôle de compétitivité Cap Digital. S'y ajoute une subvention d'environ 5 000 euros du Critt (centre régional pour l'innovation et le transfert de technologie). Un cycle de préparation des données réduit de plusieurs mois [[page]]Le logiciel Nautilus sort en mars 2007 et Squid Solutions prend son envol. Les projets se multiplient ; l'entreprise élargit alors sensiblement le périmètre de son activité en exploitant sa compréhension des bases de données clients et sa capacité à modéliser les données métiers. Squid Solutions travaille avec de gros clients, opérateurs télécoms ou grands acteurs du Web. « Nous intervenons nous-mêmes dans les entreprises pour répondre à des besoins métiers urgents », décrit Adrien Schmidt qui explique que sa société intervient quelquefois sur des données extrêmement sensibles, pour les banques notamment. « Nous ne faisons aucune extraction brute ; tous les calculs sont faits dans la base de données du client, à partir d'une connexion JDBC. C'est en outre plus performant de procéder ainsi puisque l'on optimise en fonction des capacités de la base. » L'éditeur peut intervenir sur toutes les bases relationnelles (Oracle, SQL Server, DB2...), mais il a déjà développé des algorithmes optimisés pour Teradata et Oracle. Avec Nautilus et l'expertise développée par son éditeur, le cycle de préparation des données se trouve réduit de plusieurs mois à quelques semaines. « Nous créons pour les responsables métiers des indicateurs qui ont un intérêt dans la durée et qu'ils vont nous demander de façon récurrente. » Ces modèles prédictifs peuvent être rafraîchis chaque trimestre par Nautilus. Mais l'offre de Squid Solutions peut se décliner de différentes façons et le format du « livrable » peut varier. L'éditeur étudie ainsi plusieurs pistes d'évolution. « Certains clients aimeraient avoir accès à des requêtes sur Internet, donne en exemple Adrien Schmidt. Par ailleurs, les bases de données intègrent de plus en plus de capacités d'analyse en mode natif ce qui permet de lancer des calculs dans la base et nous permettrait ainsi d'utiliser les ressources de la base. » (...)

(12/02/2009 14:12:52)

RHEL 5.3 peaufiné pour la virtualisation

Red Hat livre depuis quelques jours la version 5.3 de sa distribution Linux entreprise, RHEL (Red Hat Enterprise Linux). Arrivée huit mois après RHEL 5.2, cette mouture améliore nettement la dimension virtualisation de l'OS sans pour autant parachever l'abandon de l'hyperviseur Xen pour KVM/Ovirt. Dans son livre blanc de 12 pages sur RHEL 5.3, Red Hat réussit le tour de force de n'employer le mot hyperviseur qu'une fois. Cette discrétion confirme en creux que l'éditeur continue d'utiliser Xen et travaille toujours à une migration sur KVM/oVirt. Migration à propos de laquelle il ne communique aucun détail. En attendant, RHEL 5.3 apporte de notables améliorations. Au niveau physique, cette version gère jusqu'à 126 processeurs et 1 To de mémoire, contre 64 processeurs et 256 Go de mémoire pour la 5.2. La nouvelle mouture est optimisée pour tirer profit du potentiel de l'architecture Nehalem d'Intel. Elle n'a pris corps pour l'instant que dans les Core i7, mais des processeurs pour serveur sont attendus d'ici quelques semaines. La 5.3 supporte 32 CPU virtuels avec, pour chacun, 80 Go de mémoire. Red Hat insiste sur le support d'Extended Page Tables (EPT), la gestion des pages mémoire par les processeurs Intel. Par rapport à une gestion logicielle, l'EPT apporte de notables gains de performances puisque, selon l'éditeur, elle concourt à réduire quasiment à néant l'overhead engendré par l'hyperviseur. Chaque machine virtuelle a droit à 16 NIC (Network Interface Connector) et Red Hat à intégré les pilotes paravirtualisés propres à Xen. Notons aussi pour la première fois l'intégration d'Open JDK, une version open source de Java SE 6, et le support opérationnel du gestionnaire de fichiers GFS2. (...)

(12/02/2009 11:28:01)

Intel investit 7 Md$ sur deux ans aux Etats-Unis pour fondre en 32 nm

Paul Otellini, le pdg d'Intel a annoncé en grande pompe que son groupe allait investir 7 milliards de dollars sur deux ans pour faire évoluer ses usines américaines vers la technologie 32 nanomètres. Les trois sites concernés se trouvent en Arizona, en Oregon et au Nouveau-Mexique. La publicité autour de cet investissement intervient alors qu'Intel se dit en avance sur son plan de charge pour migrer de la technologie de gravure en 45 nm à 32 nm. Le premier processeur 32 nm à être produit devrait être le Westmere, un Nehalem (Core i7) pour machines individuelles. Il est attendu pour la fin de l'année. Le passage au 32 nm est une étape importante pour le numéro un mondial des semiconducteurs. Toutefois, rapporté aux 10 à 11 Md$ qu'Intel prévoit d'investir sur le seul exercice en cours, l'investissement annoncé sur le 32 nm ne représente qu'un peu plus d'un tiers sur un an. Sachant qu'Intel communique sur la somme de 3 Md$ pour construire une usine dernier cri, le groupe devrait aller bien au-delà pour faire évoluer l'ensemble de son outil de production. Intel concentre aux Etats-Unis ses unités à forte valeur ajoutée Il y a deux semaines, Intel annonçait la fermeture de cinq usines assortie d'un plan de licenciements estimé entre 5 000 et 6 000 personnes. Le groupe vient aussi de fermer une usine dans la région de Shanghai (2 000 salariés) en vue de la déplacer dans une autre région chinoise moins "coûteuse". A l'exception d'un site en Irlande et d'un autre en Israël, Intel concentre ses unités à forte valeur ajoutée aux Etats-Unis. Sa demi-douzaine de sites d'assemblage et de tests est installée dans des pays à bas salaire. Le groupe compte environ 84 000 salariés, dont 45 000 aux Etats-Unis. Un salarié sur deux est directement impliqué dans la production de composants. 75% de la capacité de production d'Intel est située sur son sol national où est aussi investi 75% de son budget de R&D. Il réalise 75% de son CA en dehors des Etats-Unis. (...)

(12/02/2009 11:18:18)

Annuels Devoteam : la SSII très prudente pour 2009 après les +17% de 2008

Comme a son habitude, la SSII Devoteam publie des résultats à deux chiffres : 17% de croissance organique à 460 millions d'euros (ME) de chiffre d'affaires (CA), 24% en croissance totale. La société prévoyait initialement 430 ME de CA. Pour expliquer les chiffres 2008, Stanislas de Bentzmann, le co-président du directoire, souligne « nous sommes dans un modèle de croissance rapide, dû à notre spécialisation sur les infrastructures et à la part de l'international qui fait 50% du CA total. Ce sont des éléments différenciateurs ». 2009 ne sera peut être pas de la même veine, la société prévoit un maintien du CA semestriel pour les six premiers mois, mais reste dans l'expectative pour la suite. Le dernier rachat, celui de l'allemand Danet sera intégré dans dix huit mois. Devoteam garde la possibilité d'effectuer d'autres acquisitions cette année, « de manière à accompagner nos clients internationaux, tels que Orange implanté en Pologne, en Espagne et en Grande-Bretagne ». Coté recrutements, elle prévoit 3 à 400 embauches, de quoi pallier le turn over naturel des SSII, guère plus. (...)

(12/02/2009 10:49:54)

Le Grenelle des antennes se tiendra le 19 mars

Quelques jours seulement après qu'elle en eut évoqué l'idée, Nathalie Kosciusko-Morizet a confirmé la tenue d'un 'Grenelle des antennes'. La secrétaire d'Etat à l'Economie numérique avait indiqué la tenue de cet événement après la condamnation de Bouygues Télécom à démonter une antenne-relais en raison du risque sanitaire qu'elle présentait. A l'occasion du débat au Sénat sur la quatrième licence 3G, Nathalie Kosciusko-Morizet a annoncé que la réunion de ce Grenelle aura lieu le 19 mars. Il réunira « opérateurs de téléphonie, radiodiffuseurs, associations d'élus et de consommateurs, scientifiques » et devrait se concentrer sur les dangers pour la santé engendrés par les ondes électromagnétiques. Plus particulièrement, les acteurs se pencheront sur la contradiction entre les craintes suscitées par les risques sanitaires - qui peuvent conduire, on l'a vu, la justice à ordonner le démontage d'antennes - et l'obligation qu'ont les opérateurs de couvrir tout le territoire. « Les élus locaux ne sont pas bien armés pour répondre à ces inquiétudes. Elles en viennent à gagner les opérateurs eux-mêmes qui s'interrogent désormais sur la possibilité de respecter leurs engagements », a indiqué la secrétaire d'Etat. La Commission européenne accepte des seuils 10 à 100 fois plus élevés que certaines régions européennes Autre chantier du Grenelle des antennes : « Nous pourrons procéder à des comparaisons internationales [en termes d'émission d'ondes électromagnétiques] et nous interroger sur la très grande disparité des normes selon les pays », a expliqué NKM. Les différences de réglementation d'un pays européen à l'autre entretiennent les craintes sur les risques sanitaires en faisant naître une question : au-delà de quelle quantité d'ondes émise la population est-elle en danger ? Les pouvoirs publics français n'ont, jusqu'alors, guère contribué à y répondre. « Nous nous contentons, souligne le sénateur Jean Desessard, de suivre la recommandation de la Commission européenne dont les seuils, compris entre 41 volts et 61 volts par mètre, sont trop élevés par rapport à ceux appliqués par nos voisins européens : 4 volts par mètre en Suisse, 0,6 volt en Toscane, à Salzbourg ou à Valence, en Espagne. » (...)

(11/02/2009 18:05:00)

Gartner prouve qu'éteindre les PC réduit la facture électrique

Eteindre les PC réduit la consommation électrique. Tout le monde s'en doute bien, mais Gartner a chiffré les gains : une entreprise qui gèrerait correctement ses 2 500 PC pourrait réduire sa consommation électrique annuelle de 43%. Federica Troni, analyste principale au cabinet Gartner, a envisagé 3 scénarii pour une même société fictive avec un parc de 2 500 postes utilisés 8 heures par jour et 230 jours par an, pour moitié des PC fixes et pour moitié des ordinateurs portables (dont 90% disposent en plus d'un moniteur externe), et dont les moniteurs sont pour moitié des écrans cathodiques et pour moitié des écrans LCD. Dans le scénario de référence, l'entreprise ne fait rien pour réduire sa consommation électrique. Dans le deuxième, elle met en place de bonnes pratiques (extinction des moniteurs le soir, désactivation des économiseurs d'écran pour ne pas bloquer la mise en veille, etc.) et utilise les outils de gestion de l'énergie prévus par les fabricants, mais aussi présents dans certains outils d'administration à distance. La société économise alors entre 43 000 dollars (si les ordinateurs portables sont rechargés sur place) et 27 500 dollars (si les portables sont aussi utilisés et rechargés à leurs domiciles par les employés) par an. Si, comme dans le troisième scénario, la société décide d'éteindre complètement les postes à la fermeture des bureaux, elle économise 6 500 dollars de plus. Mais elle risque d'y perdre en productivité en effectuant toute sa maintenance et ses mises à jour sur les heures de bureau. Même si Federica Troni le reconnaît - « la consommation d'énergie ne représente que 1% du coût total de possession des PC » - il n'y a pas de petites économies, et vu la hausse des coûts de l'énergie, l'optimisation ne doit pas concerner que les datacenters. (...)

< Les 10 documents précédentsLes 10 documents suivants >