Flux RSS

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

108538 documents trouvés, affichage des résultats 8411 à 8420.

< Les 10 documents précédentsLes 10 documents suivants >


(09/04/2010 10:14:30)

ZTE aurait livré 60 millions de terminaux sans fil en 2009

C'est une croissance de 30% par rapport à 2008 qu'annonce le chinois ZTE dans les terminaux sans fil, téléphones mobiles, data cards ou clés USB. Il annonce avoir livré 60 millions de terminaux sans fil en 2009. Les livraisons totales se sont réparties en 40 millions de téléphones et 20 millions de data cards. Enthousiaste, ZTE parle de « croissance exceptionnelle. » Bizarrement, l'équipementier chinois s'appuie sur les chiffres de l'institut iSuppli, pour indiquer qu'il a livré 60 millions de terminaux, comme si l'institut pouvait être plus juste que lui-même sur cette comptabilité. ZTE doit bien savoir combien de terminaux il a vendu ?

Signe de l'internationalisation réussie du chinois, ZTE souligne que 70% de toutes ses livraisons ont été effectuées à l'international. Pour ZTE, les trois marchés clés de son internalisation sont l'Europe, les Etats-Unis et le Japon.  L'équipementier cite Orange comme client stratégique ainsi que T-Mobile, Verizon, Telefonica, H3G, Telenor, TIM ou encore Sprint.  Des opérateurs historiques qui ont cédé à son charme asiatique. Selon ZTE, les gammes de produits livrées couvrent un spectre allant des terminaux haut de gamme aux produits personnalisés, en passant par des appareils d'entrée de gamme économiques.

Photo : He Shiyou, Executive Vice President de ZTE. (D.R)

[[page]]

Ce sont  l'Europe et l'Amérique du Nord qui ont été les plus sensibles à ses arguments avec 40 millions d'unités livrées. ZTE est le fournisseur de smartphones en tête des ventes au Portugal avec le Bluebelt. A noter également que le ZTE X760 a été vendu, à lui seul, à 1,5 million d'unités en Europe. Les activités "data cards" de ZTE ont quant à elles étaient multipliées par trois en 2009, avec 20 millions d'unités livrées. ZTE annonce avoir mis en service ses data cards auprès de 240 opérateurs, dans 106 pays différents.

Satisfecit nationaliste, ZTE souligne que - toujours selon iSuppli - les fournisseurs chinois (comprendre Huawei et lui-même) possèdent plus de 80% du marché mondial des data cards. Et de compléter que ZTE en possède lui-même 35%, dont 40% du marché national chinois (faisant implicitement de Huawei le numéro 1 du secteur). « 70% des terminaux livrés par ZTE en 2009 étaient à destination des marchés globaux, ce qui nous a aidés à devenir le 5ème fabricant mondial de combinés » se félicite He Shiyou, Executive Vice President de ZTE.

Les fabricants européens ou américains doivent continuer de s'inquiéter car il affirme : «  Afin de répondre aux besoins de tous les utilisateurs, notre société reste engagée pour 2010 dans un objectif de forte croissance sur l'ensemble de ses gammes en appliquant une stratégie globale de coopération sur les marchés européen et américain. »

(...)

(09/04/2010 10:04:18)

Violation de brevets, le canadien WiLAN attaque les principaux constructeurs informatiques

La société WiLAN, qui détient plusieurs brevets sur la technologie de transmission sans-fil, a annoncé jeudi avoir déposé une plainte devant la cour de justice du Texas (Etats-Unis) contre la plupart des fabricants d'électronique et d'informatique pour violation de ses brevets. Cette action en justice vise notamment Acer, Apple, Dell, HP, Intel, Lenovo, Sony, Toshiba, Motorola, Texas Instruments, Broadcom, Belkin, etc. et d'autres firmes qui produisent des smartphones ou des PC portables.

Dans un communiqué, WiLAN indique que toutes les sociétés qu'elle attaque ont violé son brevet (référencé 5.515.369 à l'office américain des brevets) en fabriquant ou en commercialisant différents produits utilisant une technologie Bluetooth. En 2009, la firme a réalisé un chiffre d'affaires d'un peu plus de 35 millions de dollars canadiens.


(...)

(09/04/2010 09:36:34)

Bilan Windows 7, trois entreprises témoignent

« Performant » est ressorti comme le terme récurrent de la conférence de presse sur Windows 7 organisée par Microsoft le jeudi 8 avril. Est-ce l'heure de la rédemption pour l'éditeur après la très grosse déception de ses clients face à Windows Vista ? Jean-Pascal Cousin, directeur Entreprise Technologies et Services chez la multinationale Sanofi-Aventis, l'un des leaders mondiaux des laboratoires phamarceutiques, se souvient : « Vista n'était pas bien-né pour les entreprises. Il y avait beaucoup de problèmes de compatibilité des applications, de drivers, en plus d'un côté intrusif pour l'utilisateur. » Beaucoup d'entreprises ont ainsi conservé Windows XP dans l'attente d'un meilleur système d'exploitation.

Après cet échec cuisant, Microsoft est aujourd'hui fier d'annoncer crânement que « Windows 7 est vendu toutes les 7 secondes dans le monde. » A ce jour, on en serait à 16 millions d'installations du système d'exploitation dans les entreprises, soit un décollage trois fois plus rapide que pour Vista. Suite à une campagne marketing savamment orchestrée (bêta et RC en libre accès) et à une appropriation rapide du grand public, les entreprises ont du faire face à une demande pressante de la part des utilisateurs. Pour les responsables en entreprise qui témoignaient lors de cette conférence, c'est l'une des raisons majeure d'une future migration de leur parc de postes de travail vers Windows 7. « Les salariés veulent les même outils à leur bureau que chez eux et, aujourd'hui, ils ont plus de produits IT que les entreprises » constate Jean-Pascal Cousin. Quant à Philippe Dalle Nogare, DSI de Bouygues Construction, il ajoute que : « nous sommes victimes de l'utilisateur qui demande un outil plus performant ».

Illustration : Les responsables IT de Sanofi Aventis, Bouygues Construction et Vinci Energie lors de la conférence de presse organisée par Microsoft, jeudi 8 avril. De gauche à droite : Jean-Pascal Cousin, directeur Entreprise Technologies et Services chez Sanofi-Aventis, Philippe Dalle Nogare, DSI de Bouygues Construction, l'animateur de la table ronde, et Jean Huot, directeur technique de Vinci Energie.

[[page]]

Tous s'entendent à dire que le système d'exploitation est performant et qu'il n'est pas nécessaire d'attendre les correctifs du Service Pack 1 pour le déployer. Selon Jean-Pascal Cousin « c'est une première de pratiquer de la sorte et de ne pas attendre les premiers correctifs ». Quant à Jean Huot, directeur technique de Vinci Energie, il estime que « Windows 7 apporte une vraie valeur ajoutée. »

Comment expliquer un tel engouement pour Windows 7 ?


Selon Jean-Pascal Cousin l'ergonomie, la sécurité et la robustesse du nouveau système d'exploitation sont ses véritables atouts. Mais il ne faut pas oublier un autre facteur clé dans la mise en place d'un projet dans l'entreprise : la réduction des coûts. C'est l'une des principales raisons pour lesquelles un groupe décidera ou non de changer de système d'exploitation sur l'ensemble de son parc. Microsoft parle d'un gain en moyenne de 82 à 141 € relatifs au support informatique, à l'administration du PC, au déploiement ainsi qu'aux économies d'énergie. Et selon l'éditeur, le ROI ne devrait pas dépasser les 12 mois.
Résultat, le groupe Bouygues Construction a entamé un processus de migration depuis novembre dernier. Les équipes de cette société travaillent actuellement sur le déploiement et cherchent à automatiser la migration, en parallèle de quoi ils tentent d'accélérer l'évaluation des applications, de vérifier leur compatibilité et d'anticiper les alternatives possibles. A noter qu'en sus des frais de déploiement, les entreprises devront prévoir des coûts de formation de leur personnel.

La virtualisation couplée à Windows 7 est un autre atout majeur sur lequel communique beaucoup Microsoft. La réponse côté responsables en entreprise est malgré tout beaucoup plus nuancée. Jean-Pascal Cousin pense que « virtualiser c'est bien mais ce n'est pas universel. Ce n'est valable que pour des utilisateurs sédentaires or nous avons un nombre conséquent de salariés nomades. » De plus, lorsque l'entreprise virtualise ses postes de travail, elle risque de faire face à des problèmes de maintenabilité.

[[page]]

Dans tous les cas la migration se fera par étape et pourra intégrer les solutions actuellement en cours de conception chez Microsoft : Windows Online Enterprise et Office 2010 qui devrait être commercialisé dans les semaines à venir. Sans oublier la plate-forme Azure, le cloud maison principalement conçu pour les développeurs, les éditeurs et les intégrateurs.

Un succès à relativiser

En six mois, Microsoft annonce 10% de parts de marché pour Seven. Un chiffre certes encourageant pour le géant informatique, mais il faut prendre en considération l'ensemble des ventes : achats de particuliers et licences OEM (Original Equipment Manufacturer). Car dans ce cas de figure l'utilisateur n'a pas choisi son système d'exploitation. De même; les entreprises ont la possibilité de s'abonner à la Software Assurance et disposent alors des licences de toutes les mises à jour du système d'exploitation. Ainsi, elles peuvent avoir Windows XP sur l'ensemble de leur parc mais seront comptabilisées dans la part de marché de Windows 7, dont ils disposent de fait de la licence. La part de marché annoncée se base en effet sur les licences et non sur les déploiements réels.

Autre chiffre clé affiché : 57% des entreprises devraient migrer vers Seven dans les 12 à 18 mois. Ce processus ne sera pas immédiat mais devrait se dérouler sur une durée moyenne de 4 ans. Microsoft n'a pas souhaité communiquer au sujet des chiffres de ventes à l'unité, notamment de mises à jour d' XP ou Vista vers Seven. Or seules ces ventes sont les témoins de la véritable attractivité du produit.

(...)

(08/04/2010 17:47:14)

Le cloud privé : priorité des DSI selon une étude PAC

Avec le concours d'EMC, d'Intel et de VMware, le cabinet d'études PAC a demandé à un panel de 200 décideurs informatiques français, répartis dans les principaux secteurs d'activités, leur vision du cloud computing. Étonnamment, le principal avantage mis en avant par ces responsables IT n'est pas la réduction des coûts de production ou les gains attendus pour la mise en service de nouveaux projets, mais la disponibilité des ressources (42% des réponses) et la flexibilité de la plate-forme (34%). Encore plus surprenant, l'optimisation de l'infrastructure et le paiement à l'usage ne rassemblent que 19 et 21% des « suffrages ».  Christian Hilaire, PDG d'EMC France, analyse ces résultats en expliquant que « les entreprises démarrent aujourd'hui dans leur réflexion sur un cloud privé. Nos principaux clients réfléchissent à la question, c'est l'étape suivante après la virtualisation. Le cloud est bien la quatrième vague informatique après le mainframe, le PC client et le web. » Les responsables IT ont bien compris que le cloud allait leur permettre de masquer la complexité du système d'informations pour fournir des services à la carte. Et à la différence des projets informatiques traditionnels qui demandent de trois mois pour allouer des ressources à une application, la gratification est immédiate et de type self-service.

Parmi les inconvénients du cloud computing, nos responsables informatiques pointent à 50% la sécurité et à 35% la dépendance au réseau. Des freins liés à l'infrastructure et aux problèmes récurrents de sécurité. La dernière conférence RSA à San Francisco mettait également l'accent sur les défis sécuritaires qui attendaient le cloud (https://www.lemondeinformatique.fr/actualites/lire-les-defis-securitaires-du-cloud-30182.html). Pourtant, les principaux projets concernent aujourd'hui des clouds privés hébergés dans l'entreprise ou chez un tiers de confiance (opérateur ou intégrateur). Des solutions en théorie moins vulnérables que les clouds publics proposés par les éditeurs ayant flairés la bonne affaire. « Les opérateurs vont contribuer à structurer le marché en Europe, car ils possèdent les infrastructures indispensables pour faire transiter les processeurs les plus critiques à travers le cloud» précise Mathieu Poujol, directeur technologies chez PAC. « Ensuite tous les services de l'entreprise ne sont pas nécessairement hébergés dans un cloud. Il est possible de procéder par étapes » souligne Jean-Pierre Brulard, vice-président Europe chez VMware. Trois types de plates-formes services sont aujourd'hui définis pour le cloud : IaaS (le réseau, le stockage, les serveurs et les outils de virtualisation), PaaS (avec en plus les logiciels serveur, les bases de données, l'intégration SOA et les runtimes) et le SaaS (toutes ces briques avec les applications).

 

En illustration, Mathieu Poujol de PAC, responsable de l'étude sur le cloud computing en France

[[page]]

Autre réponse stupéfiante à la question sur les acteurs du cloud computing : Microsoft arrive en tête avec 50%, VMware suit avec 43% et Amazon ne pointe qu'à la huitième place avec 7%. Difficile à comprendre quand on sait qu'Amazon a lancé sa plate-forme EC2 en 2006 ! Un cloud arrivé à maturité avec une tarification très claire alors que Microsoft sort à peine de sa phase de tests et tente de commercialiser ses services depuis février dernier. Sur ce point précis, Mathieu Poujol précise que l'étude a été mené lors du lancement d'Azure début 2010 et que ces responsables IT ont dû être particulièrement sensibilisés au programme de Microsoft.  Ce sont donc principalement les éditeurs qui sont spontanément associés au cloud et non pas les opérateurs ou les fournisseurs de services managés comme IBM ou HP.

Sur l'initiative des projets cloud, la DSI est aux commandes dans 67% des cas même les métiers et la direction générale pèsent un poids très lourd (26%). Les responsables IT semblent bien décidés à rester suffisamment réactif pour ne pas perdre la main face aux demandes des métiers. Point particulièrement intéressant dans le cadre des projets, quels sont les type d'application ou d'infrastructure concernés ? La messagerie reste toujours sur le podium avec 54% des réponses mais les ressources administratives (finance et compatibilité) arrivent sur la deuxième marche (26%) suivi de près par la CRM (24%). Les activités critiques de l'entreprise ne semblent donc pas mises à l'écart des projets cloud. Jean-Pierre Brulard  précise que les différents modèles d'adoption applicatifs se résument à trois étapes, « la production informatique concerne tout d'abord  les applications non critiques comme la messagerie » même si cette dernière reste particulièrement visible en cas de panne à la différence d'un ERP qui peut tomber 2/3 heures sans déclencher de plan Orsec. « Les entreprises passent ensuite aux applications métiers standards ou customisés ». On assiste là à un vrai basculement dans le monde cloud, principalement quand la virtualisation passe de 20 à 60%. « Dernière étape, l'extension au business continuity pour la gestion des risques. Mais aujourd'hui, chez les clients la vraie barrière reste le passage de l'étape 1 à la l'étape 2. »

 

[[page]]

A la question sur le type d'infrastructure, les décideurs plébiscitent à 71% le cloud privé quitte à développer plusieurs petits clouds à l'intérieur de l'entreprise pour répondre aux différents besoins. Mathieu Poujol estime toutefois que les clouds hybrides vont se développer naturellement avec la maitrise des clouds privés. Les clouds publics (7% des réponses) seraient réservés à une application bien précise comme la solution de SaleForce.com. Des clouds communautaires regroupant plusieurs services publics ne sont pas exclues avec des Conseils régionaux ou des ensembles de communes. « La ville de Barcelone, par exemple, a ouvert son cloud public aux hôpitaux et à sa pépinière d'entreprises » précise Mathieu Poujol.

La conclusion de cette étude que le cloud est devenu une réalité en France et que les infrastructures privées sont clairement la priorité. « Sans s'en rendre compte, en systématisant les VM, les entreprises arrivent naturellement au cloud interne » conclue Jean-Pierre Brulard. « Avec un taux de virtualisation 30% des portefeuilles applicatifs, la France est au niveau des États-Unis et du reste de l'Europe. À 30% de virtualisation, le coût au giga est de 18 cents. Avec une montée en charge pour arriver à 60%, le cout au giga passe 9/10 cents au giga pour les entreprises ». Mais aujourd'hui pour accompagner le développement du cloud et simplifier le transfert d'une VM, il est nécessaire de créer un marché Unique du cloud en Europe pour offrir un marché global aux acteurs européens.

 

 

 

 

 

(...)

(08/04/2010 16:54:16)

Microsoft s'immisce un peu plus dans le calcul haute performance

En novembre dernier, Microsoft avait publié la version beta de Windows HPC Server 2008 R2. Aujourd'hui, la firme de Redmond annonce la disponibilité via téléchargement d'une mise à jour de cet outil. En 2008, Microsoft avait franchi le Rubicond en présentant, à Shanghai, un cluster basé sur Windows HPC se plaçant en 10ème position (19ème aujourd'hui) dans le classement des 500 ordinateurs les plus puissants dans le monde.

« Avec cette mise à jour, nous anticipons notre présence dans le Top 500 » explique Vince Medillo, directeur marketing produit, au sein du groupe dédié aux calculs haute performance.  Cette seconde version de la beta doit prendre en considération les retours clients et les résultats des premiers tests réalisés  sur les 1 000 nodes du centre de recherche de Microsoft. « Notre objectif est de rendre le calcul en parallèle plus facile, car aujourd'hui la programmation en parallèle est trop compliquée à mettre en oeuvre » souligne Vince Medillo. Des fonctionnalités intégrées dans le poste de travail doivent permettre d'optimiser la puissance des PC pour améliorer la vitesse des clusters. Ainsi, une société, disposant de 500 PC, pourra faire tourner un cluster HPC pendant la nuit, période où les salariés n'utilisent pas leur ordinateur. La mise à jour comprend également une intégration avec Excel, accélérant la programmation des plages de calcul. Dans un autre registre, les évolutions de Visual Studio 2010, présentées prochainement, aidera les développeurs à créer, débloquer des applications HPC.

La version définitive est attendue à l'automne 2010.

(...)

(08/04/2010 16:06:10)

Systèmes décisionnels intégrés : IBM renchérit sur Oracle Exadata

IBM vient de présenter plusieurs offres packagées associant intimement matériel et logiciel pour accélérer l'analyse de très importants volumes de données. Certaines de ces solutions reposent sur sa technologie DB2 pureScale dévoilée en octobre dernier. Destinée à ses systèmes Power, celle-ci optimise le traitement de bases très volumineuses gérées sur une combinaison de serveurs et systèmes de stockage reliés en grille, en limitant au maximum la dégradation des performances.

Les solutions présentées hier par IBM sont destinées aux applications d'entrepôt de données, mais aussi aux systèmes transactionnels. Elles viennent concurrencer directement les gammes Exadata d'Oracle. Ces dernières combinent elles-aussi matériel et logiciel en s'appuyant sur une architecture massivement parallèle de serveurs de bases de données et de stockage logés dans une armoire rack. La première version d'Exadata, annoncée en 2008, reposait sur du matériel HP et concurrençait les appliances de datawarehouse du marché (celles de Teradata, par exemple) ; la deuxième version, sur serveurs 'maison' Sun, vise aussi les applications de production.

Réduction de l'espace de stockage, recours aux SSD

Les annonces d'IBM ont porté d'une part sur pureScale Application System, associée aux environnements Power7 et aux serveurs d'application WebSphere, et d'autre part, sur la plateforme intégrée Smart Analytics Systems. Cette dernière peut être livrée sur des serveurs et systèmes de stockage IBM en environnement x86, mais elle est aussi disponible sur les mainframes System z. Chaque combinaison matériel/logiciel (ou 'appliance') est fortement intégrée à tous les niveaux, du processeur aux serveurs et aux systèmes de stockage, insiste IBM. Outre la rapidité d'analyse obtenue sur les données, notamment pour des applications de gestion des risques ou de mise à jour d'opportunités, Big Blue pointe la réduction de l'espace de stockage. Celle-ci peut aller jusqu'à 80%, en recourant à des algorithmes de forte compression des données.[[page]]L'offre pureScale vient répondre à des besoins transactionnels. Elle pourra être utilisée, par exemple, pour gérer les réseaux électriques 'intelligents' (smart grid).
En revanche, les solutions s'appuyant sur Smart Analytics sont plutôt destinées à des applications décisionnelles portant sur des données structurées et non structurées. Elles intègrent les solutions de Business Intelligence de Cognos et le logiciel de datawarehouse InfoSphere.
A noter qu'une option de stockage sur disque SSD est proposée pour augmenter encore les performances des systèmes (Oracle aussi fournit cette option sur Exadata, avec la technologie FlashFire de Sun).

IBM finance la migration des revendeurs de Sun

Pour vendre ces produits, IBM aimerait bien s'attacher les compétences des partenaires de Sun Microsystems (désormais racheté par Oracle). Pour soutenir leur démarche de migration vers ses configurations, IBM actionne le levier financier. En recourant à sa division Global Financing, il prévoit de dégager jusqu'à 500 millions de dollars en facilités de crédit pour aider les revendeurs de Sun à rejoindre ses rangs. Selon lui, plus d'une centaine d'entre eux aurait déjà étendu ou démarré un partenariat en s'appuyant sur ce financement.

(...)

< Les 10 documents précédentsLes 10 documents suivants >