Flux RSS

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

108538 documents trouvés, affichage des résultats 10251 à 10260.

< Les 10 documents précédentsLes 10 documents suivants >


(23/09/2009 17:41:55)

L'Afdel et Réseau Entreprendre coopèrent autour des PME du logiciel

L'Afdel, Association française des éditeurs de logiciels, fait échange de bons procédés avec Réseau Entreprendre, fédération qui regroupe 38 associations et 7 000 chefs d'entreprise sur le territoire français. Les deux organismes viennent de signer un partenariat croisé visant à développer les PME du logiciel, avec l'ambition affichée de faire émerger des acteurs régionaux et nationaux à vocation internationale. L'Afdel pourra solliciter les expériences professionnelles réunies au sein de la fédération, en cas de projet de création d'entreprise ou de reprise. Dans le même esprit, lorsque Réseau Entreprendre accompagnera un projet dans le domaine du logiciel, elle pourra requérir l'expertise de l'Afdel qui orientera sa demande vers ses adhérents les plus concernés. Patrick Bertrand, président de l'Afdel, a signé cet accord lundi dernier 21 septembre, à Paris, avec Bernard Broye, membre du bureau national de la fédération et président du programme InnoTech Entreprendre. Ce dernier regroupe des chefs d'entreprise ayant une activité dans les technologies innovantes. Réseau Entreprendre a été mis sur pied en 1986 par André Mulliez (le fondateur du groupe Auchan) pour accompagner les créateurs de PME qui représentent de futurs employeurs. Les chefs d'entreprise qui ont rejoint ce groupement interviennent personnellement et de façon bénévole auprès de créateurs ou de repreneurs de sociétés pour leur apporter leur expérience du terrain. Outre ce soutien actif et direct, Réseau Entreprendre effectue des prêts d'honneur, allant de 15 000 à 50 000 euros, sans garantie et sans intérêt. En avril dernier, l'Afdel avait manifesté sa volonté de tisser autour de son association des liens avec d'autres organisations, nationales et régionales, investies dans les nouvelles technologies et le soutien aux entreprises afin de renforcer son action auprès des éditeurs de logiciels. (...)

(23/09/2009 17:37:19)

IDF 2009 : Les nouveaux Xeon 5500 sont prêts plus tôt que prévu

Paul Otellini, président et CEO d'Intel, a profité de l'ouverture mardi à San Francisco de l'IDF (Intel Developer Forum) pour montrer ses premières galettes de silicium gravées avec un procédé 22 nm, deux fois plus fin que la plupart des puces actuelles. Résultat ? 2,9 milliards de transistors et 364 mégabits de mémoire SRAM sur un espace grand comme un ongle. Cette finesse de gravure arrivera avec la microarchitecture Sandy Bridge qui succèdera au couple Nehalem / Westmere d'ici fin 2011. En attendant de descendre à 15 nm en 2013. Mais, ça, c'est l'avenir. Le présent, c'est justement la deuxième génération de Nehalem pour serveurs, six mois après la première. Intel a annoncé qu'il allait passer sa nouvelle génération de Xeon 5500 (Nehalem) quadri-coeurs pour serveurs en production dès la fin 2009, et ce plus tôt que prévu. Les premiers systèmes équipés de ces puces devraient être disponibles au premier trimestre 2010. Les premiers Xeon 5500 (Nehalem) en 32 nm Contrairement aux premiers Nehalem pour serveurs conçus avec un procédé en 45 nm, les nouveaux Xeon 5500 exploitent un procédé de gravure plus fin, en 32 nm. Ils s'appuient sur la micro-architecture Westmere qui réduit, entre autres, les pertes de puissance électriques inhérentes aux processeurs (grâce à l'isolant high-K metal associé au procédé 32 nm dans ce cas) jusqu'à 30 fois par rapport aux premiers Nehalem en 45 nm. Westmere dispose par ailleurs du nouvel ensemble d'instructions Advanced Encryption Standard (AES) pour un cryptage/décryptage plus rapide des données. Comme leurs prédécesseurs, ces nouveaux Xeon 5500 exécutent deux threads (instructions élémentaires) par coeur soit jusqu'à 8 threads par cycle pour un quadri-coeurs. Le quatrième trimestre 2009 sera l'occasion d'autres sorties de produits pour Intel. Les processeurs de la gamme destinées aux machines de bureau et aux mobiles, Arrandale et Clarkdale, pour commencer. Les Clarkdake, équipés d'une puce graphique iGFX, entreront d'ailleurs aussi dans des serveurs d'entrée de gamme. Enfin, après des retards répétés, Intel va aussi proposer ses nouveaux Itanium appelés Tukwila début 2010. Leurs successeurs, les Poulson, conçus en 32 nm, devraient arriver deux ans plus tard. (...)

(23/09/2009 16:29:48)

Oracle 11g R2 simplifiera les mises à jour de progiciel... ou pas

Deux ans après la sortie de la version 11g de sa base de données, Oracle a officiellement lancé sa mise à jour, la R2 (ou Release 2). L'édition pour Linux est d'ores et déjà disponible, tandis que les éditions pour Unix suivront d'ici à la fin de l'année, et l'édition Windows début 2010. Parmi les principales nouveautés, cette R2 donne la possibilité de procéder à des mises à niveau des progiciels en utilisant deux éditions de la base. Des déclencheurs dits de « cross-edition » propagent les modifications de données d'une édition à l'autre. Cela permet de procéder à la mise à jour des applicatifs sans stopper la base, de tester la nouvelle version en production, et de revenir à l'ancienne version en cas de souci. Toutefois, après cette belle annonce en plénière devant un parterre de clients et partenaires réunis hier à Paris, Mark Townsend, vice-président d'Oracle responsable du SGBD, a reconnu que cette fonction demandait à être supportée par les progiciels. Or, même ceux d'Oracle ne la prennent pas encore en compte. « Ce sera le cas au fur et à mesure des prochaines versions », nous a-t-il assuré. RAC One Node, une option pour ne payer que pour un noeud du cluster Mark Townsend est aussi revenu longuement sur RAC (Real application cluster), la technologie de type grid d'Oracle. RAC est la réponse de l'éditeur aux entreprises cherchant de la haute disponibilité et un accroissement continu des performances (en ajoutant des noeuds au cluster). Toutefois, les clients ont plus d'une base en production, et des besoins différents. 11gR2 inaugure donc un partitionnement dynamique du grid : les entreprises pourront constituer des pools de serveurs correspondant à des besoins précis, ainsi qu'un pool 'libre', dont les ressources pourront être allouées dynamiquement par le logiciel de gestion selon les besoins. A noter aussi l'apparition d'une option tarifaire : RAC One Node. Destinée à des bases trop petites pour nécessiter une distribution sur deux noeuds, l'offre permet de payer pour un seul noeud tout en bénéficiant des capacités de RAC : reprise après panne automatique sur un autre serveur de la grappe, ou bascule pour des opérations de maintenance. La version 2 d'Exadata tire parti des technologies Sun pour les systèmes OLTP Une grande partie de la présentation de Mark Townsend a porté sur Exadata, dont la version 2 avait été dévoilée quelques jours auparavant. Sans grande surprise, alors que la première version de cette « Oracle Database Machine » reposait sur du matériel HP, la v2 d'Exadata est conçue sur du matériel Sun (les processeurs restant des Intel Xeon 5500). Et cette fois, Oracle se sent autant en confiance dans le domaine des datawarehouses, qui était le marché de prédilection d'Exadata v1, que dans celui de la consolidation de bases transactionnelles (OLTP) : l'ajout d'une mémoire cache Flash, basée sur la technologie FlashFire de Sun, a apparemment permis de supprimer le goulet d'étranglement pour les entrées/sorties. [[page]]Oracle explique ainsi que la configuration peut aller jusqu'à 64 coeurs, environ 400 Go de RAM, 336 To de stockage par rack, 5 To de mémoire cache en Flash, et 1 million d'entrées/sorties par seconde. Et pour améliorer encore les performances, certaines requêtes sont traitées directement au niveau des systèmes de stockage, ce qui fait d'Exadata, a indiqué Mark Townsend, un système massivement parallèle. Du stockage vertical pour une compression améliorée dans Exadata Pour le décisionnel, Oracle inaugure une technologie de compression bien connue des éditeurs de SGBD verticaux comme Streambase ou Sybase, mais que l'éditeur californien préfère appeler « hybrid columnar compression ». Oracle affirme pouvoir ainsi atteindre des taux de compression d'un facteur 10 pour les données les plus souvent requêtées, et d'un facteur 15 à 50 pour les données en mode archivage. Le tout pour un prix ridicule, à en croire Mark Townsend, qui a comparé l'achat de deux de ces « appliances », pour 2,3 M$, à celui d'une configuration équivalente chez IBM (serveurs Power 595 et unités de stockage DS8300 Turbo), coûtant d'après lui 10,7 M$. Tout le discours de Mark Townsend s'articulait en effet autour des économies que les entreprises sont censées pouvoir réaliser en passant à 11g R2 ou, mieux, en passant directement à Exadata équipé de sa 11g R2 préconfigurée. Le vice-président d'Oracle a ainsi promis qu'on pouvait diviser par 5 ses coûts en matériel en mettant en oeuvre les technologies de grid offertes par RAC et les nouvelles techniques de compression. Objectif : faire migrer la moitié de la base en un an La migration elle-même d'une ancienne base Oracle vers la 11g R2 est censée ne coûter « qu'un quart du coût de la mise à jour de 9i à 10g ». Des possibilités de captures de transactions ont été ajoutées à 11g, qui permettent de jouer de vraies transactions lors des tests de la nouvelle base. Cela allié à des outils d'analyse et d'optimisation devrait grandement aider les clients, estime Mark Townsend. Qui veut croire que « au moins la moitié des 70 à 75% des clients des SGBD Oracle utilisant aujourd'hui la version 10g devrait migrer dans le courant de l'année suivant la disponibilité ». (...)

(23/09/2009 14:16:30)

Les ventes mondiales de PC devraient baisser de 2%, et non 6%, en 2009

Avec une estimation de 285 millions d'unités vendues, les ventes mondiales d'ordinateurs devraient baisser de 2% en 2009 par rapport à l'année précédente, où il s'était vendu 291 millions d'ordinateurs. Toutefois, cette prévision du cabinet d'analystes Gartner, publiée ce 23 septembre, est plus optimiste que celle qu'il avait faite en juin dernier, pour laquelle les ventes devaient chuter de 6% sur l'année. Malgré l'arrivée du nouveau système d'exploitation de Microsoft, Windows 7, dans les circuits de distribution grand public le 22 octobre prochain, Gartner ne pense pas que cette commercialisation, tout de même attendue, "booste" les ventes de PC pour la fin de l'année. Les ventes des netbooks, quant à elles, sont florissantes. Elles devraient atteindre les 25 millions d'unités en 2009, et 37 millions en 2010. Gartner termine son analyse par une note d'optimisme. Il prévoit une hausse des ventes de PC de 12,6% en 2010. Sans pour autant que les prix baissent. (...)

(23/09/2009 12:12:15)

Microsoft s'offre des outils de portage de calcul haute performance pour le bureau

Décidément, le calcul haute performance (HPC) sur poste de travail est en vogue depuis quelques jours. Après l'annonce du supercalculateur de SGI hier et celle de Cray quelques mois plus tôt, c'est au tour de Microsoft de s'intéresser au sujet. Il vient en effet d'acquérir les technologies de portage sur cluster scientifique ou supercalculateur depuis un poste de travail d'Interactive Supercomputing (ISC). Sur le blog officiel de la division Windows Server, Kyril Faenov, directeur général de la division des technologies de calcul parallèle et haute performance de l'éditeur, explique que les outils d'ISC « accélèrent le prototypage, l'itération et le déploiement de solutions parallèles à grande échelle [...] ce qui correspond à notre vision d'un HPC et d'un calcul parallèle simplifié, à la fois sur le poste de travail et sur des clusters. » Les équipes d'ISC, menées par Bill Blake, CEO de l'entreprise, rejoindront le centre de R&D de Microsoft à Cambridge dans le Massachusetts. L'offre Star-P d'ISC permet de porter de façon simple des algorithmes ou des modèles mis au point sur des postes de travail vers des clusters ou des environnements HPC. Star-P évite aux utilisateurs d'avoir recours pour de telles opérations aux langages C ou Fortran ou encore à l'interface de passage de messages MPI utilisée dans le monde du clustering, en particulier, pour passer en HPC. Ces outils s'adressent à des secteurs comme le bio-médical, la finance ou encore l'ingénierie. Microsoft a commencé à travailler sur l'intégration des technologies d'ISC dans ses produits, mais ne donne pas plus de détails pour l'instant. Windows HPC Server 2008 sur lequel Star-P a été porté fin 2008 semble néanmoins une cible toute trouvée. Microsoft a remplacé l'ensemble du site d'Interactive Supercomputing par ses propres pages d'information sur le déroulé de l'acquisition, destinées aux clients et aux partenaires d'ISC. Un bon moyen de réécrire l'histoire, en quelque sorte, puisqu'aucune des informations d'origine sur les produits ou les annonces faite par ISC n'apparait plus en ligne. Dans la foire aux questions, Microsoft précise qu'il arrête la vente de Star-P qui ne fera plus l'objet d'aucune nouvelle version après l'actuelle 2.8. S'il n'achète aucun des contrats clients, l'éditeur assurera néanmoins le support des logiciels jusqu'au 31 décembre 2010. Mais Microsoft ne fait aucune mention des utilisateurs des versions de Star-P destinées aux clusters Linux. (...)

(23/09/2009 11:26:16)

Larry Ellison n'a pas l'intention de se séparer de MySQL pour apaiser l'UE

L'Union européenne s'est donnée jusqu'au 19 janvier pour examiner l'acquisition de Sun par Oracle. Un délai qui coûterait chaque mois à Sun quelque 100 M$, à en croire Larry Ellison. Intervenant lundi soir au Churchill Club dans la Silicon Valley, le fondateur d'Oracle a, avec sa fougue coutumière, expliqué les ambitions d'Oracle dans l'informatique : être le digne successeur de « l'IBM de Thomas Watson », une époque glorieuse où le constructeur s'est imposé comme le plus grand fournisseur de matériel et de logiciel de la planète. La fusion de Sun et d'Oracle permettrait d'atteindre cet objectif, estime Larry Ellison, qui a affirmé qu'après avoir battu IBM dans le logiciel, il ne lui restait plus qu'un obstacle pour renouveler cette victoire sur le terrain du matériel. Autrement dit, il n'attend que l'approbation de la Commission européenne. Les autorités antitrust européennes se penchent en effet sur le cas de MySQL, la base de données Open Source que Sun avait acquise pour 1 Md$ début 2008. Oracle n'a, de fait, aucun intérêt à développer plus avant MySQL, qui a connu un succès fulgurant en proposant une alternative à moindre coût aux SGBD classiques. L'inventeur de MySQL a d'ailleurs quitté Sun pour créer une société offrant un clone de la base Open Source. Nouvelle diatribe contre l'appellation 'cloud' Pour Larry Ellison, il n'y a aucune concurrence entre les SGBD Oracle et MySQL. Il s'est dit confiant dans le fait que l'UE viendra à considérer les choses sous le même angle que lui... et que les autorités judiciaires américaines, qui ont approuvé le rachat en août dernier. Larry Ellison a aussi profité de son passage sur scène pour railler une fois de plus l'appellation cloud et tous ceux qui l'utilisent. S'agit-il de vapeur d'eau ? a-t-il demandé. Et d'expliquer doctement que cela se résumait à des ordinateurs, des processeurs, des OS, des bases de données, du réseau... et à une autre façon de les commercialiser. (...)

< Les 10 documents précédentsLes 10 documents suivants >