Flux RSS

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

108538 documents trouvés, affichage des résultats 10671 à 10680.

< Les 10 documents précédentsLes 10 documents suivants >


(07/07/2009 16:34:07)

Une pénurie de disques durs menace les constructeurs de PC portables

L'été sera chaud pour les constructeurs de PC portables. La faute à une pénurie de disques durs dévolus aux machines nomades que les fabricants n'ont su anticiper et qui pourrait obérer les résultats des spécialistes des notebooks. Nos confrères de Digitimes rapportent ainsi les constatations des distributeurs taiwanais GMI Technology et Weikeng Industrial, selon lesquels les principaux fabricants de disques durs pour portables - Hitachi, Western Digital, Toshiba - n'ont su anticiper une demande pour leurs produits qui n'a cessé de croître depuis quelques mois. Au contraire, ils ont frappé leurs prévisions du sceau de la prudence et ont adapté leur production au ralentissement du marché observé l'hiver dernier. Le fait que la demande émanant des constructeurs de portables ait été forte au printemps n'a pas suffi à ce que les capacités de production augmentent en conséquence, les spécialistes du stockage ayant fait montre d'une certaine inertie dans la reprise de leur production. Digitimes cite notamment le cas des disques Toshiba de 250 Go que les constructeurs de netbooks et notebooks réclament mais que le fournisseur souffre à livrer. La pénurie sur le marché du stockage pour ordinateurs portables est également alimentée par la récente décision de Samsung de se retirer du marché des disques durs magnétiques de 1,8 pouce au profit des SSD. Cette tendance risque fortement de nuire aux spécialistes des laptops dont la production se trouve conditionnée par les capacités de livraison des fournisseurs d'unités de stockage. In fine, les constructeurs pourraient ainsi voir leur chiffre d'affaires du troisième trimestre affecté. (...)

(07/07/2009 15:43:56)

USI 2009 : Des scénarios d'avenir à l'usage des DSI

« Les prévisions sont difficiles, surtout lorsqu'elles concernent l'avenir. » La maxime de Pierre Dac a une nouvelle fois été illustrée la semaine dernière, par Antoine Gourévitch, directeur associé du Boston Consulting Group, et François Hisquin, directeur général d'Octo Technology, qui ont réfléchi avec des DSI à des « futurs possibles » de notre environnement, qui auront des impacts énormes sur la configuration des systèmes d'information... et sur la viabilité des entreprises. La seconde journée de l'Université du SI d'Octo Technology avait commencé sous les meilleurs auspices, le généticien Albert Jacquard invitant les participants à réfléchir à leur rapport aux autres, à « profiter de cette période de mutation pour mieux organiser les rencontres », et à abandonner notre culture de la compétition qui dresse les êtres humains les uns contre les autres : « A partir du moment où je veux faire quelque chose mieux que vous, je deviens incapable de vous rencontrer. » François Hisquin et Antoine Gourévitch ont pour leur part clos cette journée, dense en sessions techniques et stratégiques (cf. nos liens ci-dessous), en invitant les gens à examiner quatre scénarios d'avenir pour l'informatique, et à en distinguer aujourd'hui les signes précurseurs. Un avenir de fusions-acquisitions mettant les entreprises à la merci de trois géants Comme nous l'avait confié François Hisquin, cette dernière présentation de la journée était une gageure, car il s'agissait de rendre compte d'un atelier s'étant déroulé la veille, avec des DSI de grands groupes, tels que Generali, Axa, Thalès, Calyon, Danone, Carrefour... Toutefois, si les DSI ont en effet planché plusieurs heures sur le sujet, Octo et le BCG avaient largement préparé le terrain, mettant au point les quatre hypothèses. Dans la première hypothèse, nommée « Big is beautiful », Octo et le BCG imaginent que « le marché s'est consolidé autour de trois géants : IBM, Oracle et ATSys (fusion d'AT&T et d'Infosys) », qui se répartissent respectivement la finance, l'industrie et la high-tech. Du coup, tout est externalisé et le DSI n'est plus qu'un gestionnaire de contrats... pressuré. Exemple de clause : « Le client versera durant toute la durée du présent contrat une redevance égale à 5% de son chiffre d'affaires. Durant les 15 années suivant la rupture du présent contrat, le client versera au prestataire un dédit égal à 2% de son chiffre d'affaires. » Comme l'a souligné sur scène François Hisquin, les clients SAP, qui subissent actuellement la hausse de la maintenance, ont ri jaune à la lecture de ce scénario. AppStore et Green Detox : les scénarios les plus probables aux yeux des DSI [[page]] Le deuxième scénario, nommé « AppStore », imagine un monde déstructuré : les informaticiens peuvent faire fortune chez eux en inventant des logiciels, qu'ils proposent sur une plateforme en ligne née de la fusion de Google et d'Apple. De leur côté, les directions métier picorent les logiciels dont elles ont besoin sur cette plateforme, ou au pire composent des services à partir de ce qui y est proposé, réalisant « un système d'information à la demande ». Les offres de Google, Salesforce, et de bien d'autres en Saas (Software as a service, services applicatifs accessibles en ligne) préfigurent ce que cela pourrait devenir. Bien entendu, le poste de DSI n'est plus nécessaire dans cette configuration. Des mesures simples pour anticiper la taxation des ressources énergétiques Le troisième scénario présenté, « Green Detox », est apparemment celui qui a le plus fait réagir. Il imagine les conséquences d'une « guerre de l'eau » au Proche-Orient, ayant entraîné la décision de diviser par trois la consommation énergétique mondiale, et une politique de taxation drastique de l'IT. Dans cette hypothèse, « la recherche Google est taxée à 5$ » et tout le monde cherche le moyen d'écrire des programmes qui consomment le moins de ressources possibles. Ainsi, « SAP qui a sorti une version 'Logan' de son ERP prend des parts de marché »... De leur côté, les DSI mutualisent au maximum. Ceux qui ont planché sur le scénario l'ont apparemment jugé très plausible, puisque Antoine Gourévitch a rapporté que plusieurs ont fait part de leur décision de prendre des mesures proactives en matière de Green IT : inventorier les systèmes pour détecter ce qui est sous-utilisé, arrêter de refroidir les datacenters à moins de 20°C, placer des indicateurs sur les dépenses carbone... Le quatrième et dernier scénario, « Reboot », joue à se faire peur : « La généralisation d'un activisme anticapitaliste fait suite à la crise financière. Les virus 'Spoutnik' et 'Longue Marche' se sont combinés, ce qui a entraîné l'effacement de 30% des données des centres de calcul et empêché l'Internet de fonctionner pendant 8 semaines. » S'ensuivent faillites en série, réinternalisation des infrastructures IT pour plus de sécurité, résurgence des technologies propriétaires... Soit qu'il fasse trop peur, soit que les DSI s'estiment à l'abri, ce scénario n'a guère soulevé de commentaires. « L'incertitude doit être explorée, car elle est source d'opportunités » Si l'exercice peut paraître vain, il est en fait essentiel pour le développement à moyen et long terme des entreprises, ont fait valoir François Hisquin et Antoine Gourévitch. Pour le DG d'Octo Technology, une telle approche aurait peut-être permis à DEC de perdurer. En 1977, le dirigeant de Digital, Ken Olsen, expliquait qu'il ne voyait aucune raison pour que les gens aient un ordinateur chez eux. Comme le rappelle Luc de Brabandère, directeur associé de BCG et inventeur de la méthode, en préambule d'un document remis à tous les participants ce jour-là, « il est probable qu'aucun de ces scénarios ne se produise, car ce sont des caricatures de l'avenir ». Néanmoins, dit-il, cette incertitude doit « être considérée et explorée, car elle est source d'opportunités ». « En plus du ''probablement que'' qui mobilise vos réflexions quotidiennes, il faut faire de la place aux ''mais au fond si...'' qui vous aideront dans les décisions de demain à prendre dès aujourd'hui. » (...)

(07/07/2009 12:23:29)

SQLI se convertit au SaaS avec son offre de dataroom électronique

Destinée aux secteurs de la finance et de l'immobilier, l'offre de dataroom électronique de SQLI est désormais proposée en mode SaaS. Plusieurs formules de location ou d'abonnement sont déclinées pour accéder en ligne à une ou plusieurs salles virtuelles adaptées à la mise à disposition sécurisée de documents confidentiels. Ces datarooms en ligne sont par exemple utilisées par les banques d'affaires, les cabinets de conseil, les études notariales ou les fonds d'investissement dans le cadre d'opérations de fusion/acquisition, de cessions d'actifs immobiliers, d'appels d'offres, de LBO, etc. Il est possible de stocker, dans un de ces espaces sécurisés, de 1 000 à 50 000 documents, voire davantage, pour faciliter les échanges d'informations entre des vendeurs et des acquéreurs potentiels. Pour encadrer son entrée sur le marché des solutions en ligne, « SQLI a constitué en début d'année une agence SaaS qui travaille de manière transversale pour le groupe », explique Olivier Larribe, directeur du développement Solutions SaaS. La SSII française compte développer d'autres offres en ligne, pour ses propres besoins ou pour le compte de tiers. La mise à disposition d'une salle virtuelle en 48h La transposition de l'offre de dataroom vers le mode SaaS s'est faite en deux temps. Il y a eu d'abord une refonte ergonomique du logiciel, puis l'application a été portée dans une architecture multitenant. « L'application a fortement évolué. Les projets de dataroom se gèrent sur un seul écran, en utilisant notamment des fonctionnalités de glisser/déposer », détaille Olivier Larribe, précisant que le client peut désormais gérer seul des fonctions qui nécessitait auparavant une intervention de la SSII : ajouter des rubriques ou des dossiers, créer de nouveaux utilisateurs, ajouter des documents, ouvrir une dataroom pour un intervenant pendant une période déterminée, ou bien la désactiver. La mise à disposition d'une salle virtuelle se fait en 48 heures dès que le client a fourni l'arborescence des rubriques qu'il souhaite voir apparaître et précisé le nombre d'utilisateurs. Pour 3 990 euros HT, on accède pendant trois mois à une dataroom où peut être chargé un nombre illimité de documents. Le tarif est dégressif pour trois ou cinq projets. Quant à la formule d'abonnement, elle permet d'utiliser un nombre illimité de datarooms sur six ou douze mois, pour 3 750 €HT ou 3 250 €HT par mois. « Le client peut également acheter les sources de l'application pour l'installer en interne », rappelle Olivier Larribe. (...)

(07/07/2009 11:00:27)

EMC augmente à nouveau son offre pour acheter Data Domain

EMC ne renonce pas à mettre la main sur Data Domain. Malgré le refus catégorique opposé par le spécialiste de la déduplication, il y a trois semaines à EMC, Joe Tucci, patron du prétendant éconduit, a surenchéri hier en proposant 2,1 Md$, soit 200 M$ de plus que l'offre de NetApp . De quoi couvrir largement les frais qu'entrainerait un éventuel revirement de situation. Si les actionnaires de Data Domain rejetaient la proposition de NetApp, déjà approuvée par le conseil d'administration, l'éditeur devrait en effet verser 57 M$ à titre de dédommagements. Joe Tucci a insisté encore une fois sur le fait que son offre est formulée uniquement en espèces, alors que celle de son rival combine numéraire et titres. En grand habitué des acquisitions, le patron d'EMC affirme qu'il est capable de conclure l'affaire beaucoup plus rapidement que NetApp. Dan Warmenhoven, PDG de NetApp, a immédiatement réagi en indiquant que la société allait « soigneusement examiner toutes les options » et qu'elle allait « réviser son offre » dans les jours qui viennent. NetApp vient par ailleurs de recevoir l'aval de la SEC (la commission américaine des opérations en bourse) pour procéder au rachat de Data Domain. Les actionnaires de la société devront trancher le 14 août prochain. (...)

(06/07/2009 18:05:33)

La demande en mémoire DDR3 en forte croissance

La demande pour la DRAM DDR3 augmente en même temps que l'intérêt des constructeurs pour l'efficacité énergétique et les performances de la mémoire. L'augmentation est telle que la part de marché de cette dernière génération de DRAM pourrait atteindre 30% avant la fin de l'année et dépasser ainsi la DDR2. Cette dernière génération de DRAM consomme environ 60% de puissance électrique de moins que celle qui l'a précédée tout en offrant environ deux fois sa bande passante, selon Sylvie Kadivar, directeur associé du marketing DRAM chez Samsung Semiconductor. La faible consommation énergétique des DDR3 prend toute sa dimension avec les nouvelles puces destinées aux laptops, d'une part, et celles qui équipent les fermes de serveurs, d'autre part. Ainsi, selon la banque d'investissement Crédit Suisse, les processeurs à très faible voltage (CULV consumer ultra-low voltage) d'Intel destinés aux portables et les Xeon 5500 (Nehalem) des serveurs font partie de ces siliciums qui tirent la DDR3 vers le haut du marché. Ainsi au Computex Taipei 2009 qui s'est tenu en juin, presque tous les laptops à base de puces à très faible voltage et toutes les cartes mères de PC qui ont été présentés et qui sortiront cette année utilisaient de la DDR3. Avec la DDR3, les prix de la DRAM retrouvent le chemin de la hausse Qui plus est, le prix de la DDR3 est d'ores et déjà abordable, et devrait encore chuter avec l'augmentation de la production. Il faut rappeler que globalement, les prix de la DRAM ont tellement chuté que la plupart des fabricants perdent de l'argent sur chaque puce vendue. Les tarifs ont décru depuis deux ans à la faveur d'une frénésie de construction d'usines et de la surproduction qui s'en est suivie. Depuis, la faillite de certains fournisseurs et la réduction de la production entamée par d'autres auraient pu changer la donne. Mais c'était sans compter avec la crise qui a affecté la demande de nouveaux PC, de serveurs et de portables, et par ricochet, celle de la mémoire. Seuls les prix des DDR3 ont finalement retrouvé le chemin de la hausse. Ils ont atteint un pic la semaine dernière avec une fourchette de 1,50 à 1,70 $ pour une puce de 1Gb (gigabit), et le prix devrait continuer d'augmenter en juillet selon DRAMeXchange Technology, observateur de ce marché. A l'inverse, le prix de la DDR2 est tombé de 1,34 $ le Gigabit en mai à 1 $ aujourd'hui. (...)

(06/07/2009 16:44:28)

Le système spécialisé de HPC Project met le calcul scientifique à portée des PME

La jeune société française HPC Project met sur le marché ses systèmes intégrés Wild Systems spécialisés dans le calcul haute performance. Cette offre est destinée à rendre les environnements de simulation accessibles aux PME. Pour atteindre cet objectif, la start up a misé à la fois sur un matériel couplant processeur et accélérateur graphique haut de gamme et sur un middleware Open Source de parallélisation des traitements sur de très grandes quantités de données. Ces systèmes « s'adressent plutôt à des entreprises qui n'ont pas d'équipes IT », précise Pierre Fiorini, PDG fondateur de HPC Project, et ne devraient coûter que quelques dizaines de milliers d'euros. Côté logiciel, la jeune entreprise se focalise sur la parallélisation de traitements identiques appliqués à des ensembles de données différents. Cette méthode est plus simple que la parallélisation de calculs différents qui, par ailleurs, convient particulièrement au traitement de très grandes quantité de données. Il s'agit par exemple de la simulation de phénomènes physiques, courante dans l'industrie, mais aussi d'applications comme le datamining qui applique des calculs statistiques à d'importants flots de données. Comme le rappelle Pierre Fiorini, ces environnements concernent « la finance, la médecine, les modèles statistiques, les biotechnologies (pour la représentation de phénomènes chimiques), les sciences de l'ingénieur (aéronautique, automobile, etc.) et même l'audiovisuel ». Un projet Open Source issu des travaux de l'Ecole des Mines pour la parallélisation HPC Project a choisi de s'appuyer sur un projet Open Source issu des travaux que mène l'Ecole des Mines depuis près de 20 ans. La jeune pousse a donc lancé une plateforme idoine avec le Centre de recherche informatique (CRI) de l'Ecole. Celle-ci analyse le code, identifie les parties qui peuvent être parallélisées et... les parallélise. HPC Project livrera des versions stabilisées et packagées de cet outil dont il assurera aussi le support. Le middleware sera utilisable aussi bien pour les OS que pour les applications. Pour alimenter son offre en logiciel de simulations, l'entreprise compte nouer des partenariats avec certains éditeurs du monde du HPC, à qui il proposera un accès privilégié à ses technologies. Certains sont déjà intéressés comme les canadiens Presagis (simulation multi-agents pour le secteur de la défense) et Parallel Geometry (modélisation), ainsi qu'un Français, spécialiste de la finance et du calcul scientifique, dont HPC Project ne dévoile pas encore le nom. Presagis proposera aussi l'offre de la jeune pousse française au travers de son propre réseau de distribution. Afin de ne pas voir les prix des ses systèmes flamber, HPC Project fait en sorte d'obtenir des accords de licence adaptés avec ces éditeurs. Un accélérateur graphique Tesla couplé avec deux Xeon 5500 Du côté matériel, la start up française a aussi misé sur l'originalité en concevant des systèmes composés de deux quadri-coeurs Xeon 5500 (Nehalem) d'Intel d'une part et un GPU Tesla de Nvidia d'autre part. Toute la stratégie matérielle de la jeune entreprise s'appuie sur ce couplage entre des puces standards et un processeur spécialisé sur lequel sont déportés les calculs intensifs. C'est justement pour assurer ce type de fonctions que le spécialiste du traitement graphique Nvidia a mis au point les Tesla, processeurs multi-coeurs (240 coeurs par processeur avec une architecture parallèle Cuda). A noter qu'avec de telles machines, HPC Project a dû intégrer la notion d'économie d'énergie Des ventilateurs spécifiques et un mode d'organisation des flux d'air limitent ainsi la dissipation de chaleur et la consommation électrique. Enfin, la jeune firme est à l'initiative d'un rassemblement d'acteurs de la simulation depuis la représentation d'images de synthèse jusqu'à la simulation de phénomènes aérodynamiques, par exemple. HPC Project Simbiosis a pour but de promouvoir l'usage de la simulation. Aujourd'hui, les membres sont plutôt des acteurs de petites tailles comme Optis (Toulon, représentation de la lumière), Presagis, Bionetics (simulation de comportement des plantes jusqu'à la représentation de grands espaces naturels), Realfusio (Représentation photoréaliste aéronautique), etc. Mais Intel, Nvidia et Microsoft font aussi partie de l'initiative. Pierre Fiorini assure par ailleurs être en discussion avec les entreprises françaises du secteur, comme Dassault Systèmes ou ESI. (...)

(06/07/2009 16:24:40)

La justice déboute l'INA dans son action face à Youtube

L'INA n'aura pas réussi à faire entendre ce qu'il considère comme légitime. Alors que l'Institut national de l'audiovisuel s'était tourné vers les juridictions judiciaires pour que cesse la diffusion sur Youtube de centaines de vidéos issues de son catalogue, le tribunal de grande instance de Créteil n'a pu que se déclarer incompétent pour connaître de cette affaire. En l'espèce, l'INA reprochait au service de partage de vidéos de Google d'utiliser un outil de filtrage des contenus - VideoID - largement perfectible. Et d'arguer que sa propre technologie - Signature - s'avérait bien plus efficace et devait, sur injonction du juge, être expérimentée sur Youtube. L'instrument permet aux producteurs de vidéos de signer numériquement leurs clips - c'est-à-dire d'apposer une empreinte pour revendiquer la paternité de la vidéo - afin de proscrire leur diffusion sur des canaux non autorisés. Pour légitime qu'apparaissait la demande de l'INA, elle outrepassait néanmoins les prérogatives du magistrat. Il ne lui revient pas, a-t-il expliqué au demandeur éconduit, de se prononcer sur un tel différend et il ne saurait, au regard de ses compétences, ordonner la mise en place de tel ou tel outil de filtrage. L'INA, quoique débouté, n'en a pas fini avec Youtube. Le TGI de Créteil doit encore se pencher sur le fonds de l'affaire et examiner le délit de contrefaçon dont l'INA accuse Youtube. Cette fois, ce n'est pas simplement le recours à telle ou telle technologie d'empreinte numérique qui est en jeu, mais des dommages-intérêts censés réparer le préjudice créé par l'utilisation indue de centaines de vidéos. Soit, potentiellement, plusieurs millions d'euros. (...)

< Les 10 documents précédentsLes 10 documents suivants >