Flux RSS
Infrastructure serveur

2924 documents trouvés, affichage des résultats 981 à 990.
< Les 10 documents précédents | Les 10 documents suivants > |
(19/07/2010 14:51:40)
Une société promet un datacenter modulaire autonome
Bien connue pour la création de datacenters traditionnels, la société a développé depuis un an, un produit de centre de calcul dans un container. I/o Datacenters l'a annoncé lors de la conférence Datacenter Dynamics à San Fransisco. Le groupe n'a pas donné beaucoup de détail sur ce produit et Steve Martone, vice-président de i/o a indiqué que le lancement commercial ne sera pas immédiat, après l'annonce officielle prévue dans deux semaines.
Andreas Zoll, directeur de recherche sur les datacenters de i/o a prononcé un discours sur la prochaine génération de containers, détaillant peu ou prou, le produit prochainement annoncé. Ainsi, la plupart des concurrents, HP, IBM, SGI et opérateur comme Colt. propose des structures standard de 6 mètres sur 12. L'offre d'i/o Datacenters sera un container sur mesure, pour fournir plus d'espace pour les équipements informatiques.
« Vous économisez de l'argent avec ces solutions modulaires. Est-ce vous avez envie de vous serrer dans votre datacenter ? Miseriez-vous sur une solution qui suivra vos besoins ? Je pense que nous avons déjà beaucoup réalisé d'optimisation de place par le passé » souligne l'ingénieur de la société.
Un datacenter autonome
Il déclare aussi que les prochains datacenters modulaires devront intégrer les équipements d'énergie et de refroidissement. Aujourd'hui, les clients placent souvent leur container à proximité de leur centre de calcul existant, car ils ont un accès facile à l'alimentation, au refroidissement et aux groupes électrogènes. Pour les implantations distantes, les clients sont obligés d'acheter des éléments de climatisation et des générateurs, qui sont assemblés dans un autre container. Les futurs produits doivent intégrer tous ces éléments dès le début, pour apporter des réglages plus fins et assurer une meilleure efficience énergétique. Ces containers seront ainsi autonomes par rapport à leurs lieux de destination. Andreas Zoll sous-entend qu'il y aura donc un seul container, mais cela demande à être préciser lors de l'annonce. Cette autonomie proviendrait de l'utilisation de gaz comprimé comme seule source d'énergie, sans avoir besoin d'un branchement à une prise de courant. Par ailleurs, ces solutions peuvent également être équipées de branchement satellite pour les surveiller et les gérer à distance.
Il faudra attendre la présentation officielle pour avoir des informations complémentaires, comme la durée de fabrication d'un tel produit. De mémoire, HP annonce pour son Pod un délai de fabrication de 6 semaines. Par ailleurs, i/o n'est pas un équipementier à la différence des concurrents. Pour Andreas Zoll estime que cela est un avantage pour laisser le choix des équipements aux clients.
Le cabinet d'études IDC estime de manière prudente que 84 containers seront vendus cette année et le double l'année prochaine.
Vers une standardisation de la mesure de l'efficience énergétique des datacenters
Le PUE (Power Usage Effectiveness) a été élaboré par le Green Grid, qui compte parmi ses membres, Intel, HP, Schneider Electric, etc, pour mesurer l'efficience énergétiques des datacenters. Il compare l'énergie totale consommée par un centre de calcul par rapport à celle produite par les meilleurs équipements informatiques actuels. Il prend aussi en compte les pertes de certains éléments tels que les systèmes de refroidissement.
Si cette méthode est soutenue, il lui manque encore une reconnaissance officielle en devenant un standard. Plus tôt cette année, le Green Grid s'est réuni avec le Département américain de l'énergie, l'agence de protection de l'environnement, le programme Energy Star, l'Uptime Institute, le conseil américain du bâtiment et d'autres pour définir une méthode commune de calcul des PUE. Fruit de cette réflexion, ils viennent de publier des recommandations pour les installations de datacenters. Une seconde version est prévue à destination des centres de données intégrés à des immeubles de bureau.
4 catégories de PUE
Ils ont défini quatre façons de calculer le PUE pour englober un large éventail de centres de données, y compris ceux qui n'ont pas encore la capacité de mesurer avec précision toute leur consommation d'énergie. La catégorie 0 est le niveau le plus bas. Elle est basée sur les pics de charge au cours d'une période de 12 mois. La mesure est prise auprès du compteur électrique. Bien que cette mesure offre seulement une image, en omettant les fluctuations de charges, elle peut aider les opérateurs à suivre leur efficacité énergétique, a indiqué le Green Grid.
Le niveau le plus précis est la catégorie 3. La consommation d'énergie est calculée sur 12 mois avec des mesures prises sur les points de connexion des équipements informatique au système électrique. C'est la méthode la plus précise, dit le groupe, car il élimine tout effet de pertes liées à la distribution d'énergie. A noter que les différentes sources d'énergie sont pondérées avec un coefficient, l'électricité est affecté de la note 1, le gaz naturel 0,31, l'eau chaude municipale 0,30.
Crédit Photo: APC
(...)(15/07/2010 15:06:23)NTT veut acquérir Dimension Data
On savait que les opérateurs de télécommunications considéraient l'Afrique comme terrain de jeu, avec plusieurs acquisitions récentes. Les acteurs japonais et le premier d'entre eux étaient plutôt absents de cette partie. Et pourtant, NTT vient de déposer une offre publique d'achat sur Dimension Data, intégrateur spécialisé dans l'infrastructure et les services IT. Le montant proposé par l'opérateur nippon est de 2,5 milliards d'euros.
Le groupe sud-africain, fondé en 1983, comprend 11 500 employés dans le monde et près de 6 000 clients. L'intérêt de NTT dans cette opération est double. En premier lieu, Satoshi Miura, PDG de l'opérateur explique que « cette opération doit aboutir à la création de services dédiés au cloud computing autour des services managés, des datacenters, etc ». Autre enjeu du rachat, l'expansion territoriale avec une entrée sur le continent africain et le Moyen Orient où NTT était peu ou pas présent. L'opérateur japonais était surtout actif en Asie, Europe et Etats-Unis.
L'acquisition devrait être effective au mois d'octobre 2010.
Crédit Photo: DR
(...)(15/07/2010 14:54:46)L'Energy Efficient Ethernet passe en phase de test
« Les procédures de pré-tests permettront aux fournisseurs de proposer leurs solutions dans un délai rapide » souligne Jeff Lapak, ingénieur en chef au sein du laboratoire universitaire.
L'Energy Effecient Ethernet ou 802.3az dans la terminologie de l'IEEE est un standard qui a été désigné pour réduire la consommation énergétique sur les réseaux Ethernet. Cette norme devra être supportée par différents équipements, comme les commutateurs et les cartes pour serveurs. Concrètement, elle baisse la consommation électrique quand les transmissions de données sont faibles.
Sanjay Kasturau, CTO de Teranetics et responsable de la rédaction du standard 802.3az a récemment indiqué que « l'utilisation des liens LAN n'étaient en moyenne que de 10% et dans les pics d'activité ce taux n'atteint pas les 100% ». Des études montrent par ailleurs que la consommation électrique des différents switchs des équipementiers peut varier considérablement.
Une gamme d'équipements prêtée pour tests
Ce standard, complémentaire à d'autres normes d'efficacité énergétique plus récentes à destination des équipements pour datacenters, devrait être finalisé d'ici l'année prochaine. Les travaux sur EEE a commencé en 2006, lors d'un travail exploratoire. Aux Etats-Unis, l'agence de protection de l'environnement, le ministère de l'Énergie et le laboratoire national Lawrence Berkeley ont été parmi les premiers partisans de cette technologie.
A l'origine, le laboratoire universitaire devait tester les produits compatibles Fast Ethernet et Gigabit Ethernet. Ces tests devaient être étendus à d'autres évolutions d'Ethernet l'année prochaine. Plus tôt cette année, le centre de recherche avait reçu plusieurs produits pré-standardisé 802.3az par l'Alliance Ethernet. A la fin 2009, Broadcom a proposé des puces intégrant EEE en version projet.
Trimestriels Intel : Un bénéfice encourageant pour toute l'industrie
Le fondeur de Santa Clara a annoncé cette semaine un très solide bénéfice pour le deuxième trimestre de son exercice 2010 (2,9 milliards de dollars), stimulé par les fortes ventes de processeurs dans le segment des serveurs. L'année dernière à la même époque, la firme avait enregistré une perte de 398 millions de dollars suite des charges exceptionnelles (1,45 milliard de dollars) qui correspondait à l'amende imposée par la Commission européenne. Le bénéfice par action atteint aujourd'hui 0,51 $ par action, alors que les analystes s'attendaient à un maximum de 0,43 $ par titre. Le fondeur a déclaré des revenus trimestriels de 10,8 milliards de dollars, en hausse de 34% par rapport au trimestre de l'exercice précédent. Les analystes estimaient ces recettes autour de 10,3 milliards de dollars.
Demande en forte hausse sur les serveurs
« La forte demande des entreprises pour les derniers processeurs Intel nous a permis de réaliser le meilleur trimestre de l'entreprise depuis 42 ans [la firme a été fondée en 1968 NDLR]», a déclaré Paul Otellini, Président et CEO d'Intel, dans un communiqué. Le chiffre d'affaires de la division Data Center, qui propose des produits pour les serveurs, les baies de stockage et les stations de travail, a été de 2,1 milliards de dollars, en hausse de 1,48 milliard a indiqué la société par rapport à l'exercice précédent. La division microprocesseur a quant à elle réalisé un chiffre d'affaires de 1,8 milliard de dollars tandis que les revenus pour l'activité PC Client ont été de 7,84 milliards de dollars contre 6 au cours du trimestre de l'exercice précédent.
Au cours de ce dernier trimestre, Intel a introduit plusieurs puces pour serveurs et PC portables, et en mai dernier le fondeur a marqué les esprits avec un processeur connu sous le nom de code Knights Ferry et composé de 36 coeurs pour un traitement plus rapide et en parallèle des applications commerciales et scientifiques. La société a également effectué son retour sur le marché des smartphones avec ses puces Moorestown, basées sur le noyau Atom.
Intel estime enfin à 11,6 milliards de dollars, avec plus ou moins 400 millions de dollars, ses recettes pour le troisième trimestre
WPC 2010 : Windows Intune bêta 2 dispo pour 10 000 testeurs
C'est au cours de la Worldwide Partner Conference (WPC) que Microsoft a lancé la bêta 2 de Windows Intune à destination de ses clients et partenaires. La première bêta, sortie en avril, était limitée à un panel de 1000 clients originaires des États-Unis, du Canada, de Mexico et de Porto Rico, limite atteinte en à peine 24h. Avec cette bêta 2, Microsoft élargit son panel de testeurs à 10 000 clients, ajoutant la France, l'Allemagne, l'Irlande, l'Espagne, le Royaume Uni et l'Italie à la liste des pays éligibles.
Une solution pour PME-PMI
Windows Intune est une console de gestion accessible par navigateur et par l'intermédiaire de laquelle les administrateurs réseau peuvent pousser, sur tous les PC, le déploiement de mises à jour et de services pack Microsoft. Ils peuvent aussi visualiser les inventaires logiciels et matériels du parc, réparer à distance certaines défaillances et de contrôler l'état de la protection, tout en fixant les règles de sécurité, le tout à distance. Pouvant gérer entre 25 et 500 PC, fixes ou nomades, cette solution est principalement à destination des PME-PMI, qui n'ont en général pas les ressources nécessaires pour l'administration et la configuration de serveurs sur site.
Une tarification intéressante
La firme de Redmond a profité de ce lancement pour annoncer le prix : 11 $ par poste et par mois, dans un pack incluant, en plus de Intune, un anti-malware et une mise à niveau Windows 7 Entreprise. Notons qu'il y aura des remises pour l'achat de 250 licences ou plus. Par ailleurs, pour acquérir Windows Intune, il faudra passer par les partenaires Microsoft ou par le site d'Online Services, à l'instar des autres services cloud proposés par l'entreprise.
[[page]]
Les clients du programme de maintenance Software Assurance disposeront d'une réduction égale au montant de ce service. De plus, pour 1 $ supplémentaire par mois et par poste, les clients pourront passer à une solution hybride en obtenant la suite Microsoft Desktop Optimization Pack (MDOP) qui intègre des outils non disponibles en mode cloud, comme le diagnostic et la récupération d'un PC ne voulant plus se booter.
Gérer plusieurs comptes en une seule page
La suggestion la plus populaire durant la bêta 1, selon Alex Heaton, chef de produit pour Windows Intune, consistait à pouvoir passer d'un compte à l'autre et d'en visualiser plusieurs, le tout sur la même page. Pour répondre à cette demande, l'entreprise a ajouté la fonctionnalité Multi-Account Console, page unique à travers laquelle les partenaires Microsoft peuvent gérer plusieurs comptes clients, et les administrateurs réseaux s'occuper des différents départements de leur entreprise. A partir de cet écran, ils pourront surveiller et agir sur le statut des PC via les alertes et les mises à jour de l'anti-malware. La plateforme inclut aussi un filtre capable de trier les stations selon ce niveau de fiabilité pour appliquer des règles d'urgence en haut de la liste.
Windows Intune sera officiellement disponible en version finale début 2011 pour les pays éligibles. Ces derniers seront étendus à l'Asie quelques mois plus tard.
VMware divise de près de moitié le prix de vSphere 4.1
Alors que ses concurrents Microsoft et Citrix ont amélioré leurs parts de marché sur le marché de la virtualisation en menant campagne contre les prix pratiqués par VMware, l'éditeur de Palo Alto affirme de son côté que le retour sur investissement permis par ses produits justifie un coût de licence plus élevé. Toutefois, pragmatique, VMware baisse le prix de ses produits d'entrée de gamme, l a semaine où Microsoft organise sa conférence mondiale partenaires (WPC) à Washington (lien).
Ainsi pour vSphere Essentials, le ticket d'entrée de la plate-forme de virtualisation maison, coûte désormais 495 $ pour six processeurs (soit une baisse de 995$), ou 83 $ par CPU. L'éditeur change donc le modèle de tarification de ses produits de supervision en ne prenant en compte que les machines virtuelles actives et non plus les processeurs. Ces changements de prix coïncident avec l'arrivée de sa plate-forme vSphere 4.1. Serge Robe, directeur marketing PME Europe chez VMWare explique à cette occasion que l'éditeur ambitionne de rendre sa technologie de virtualisation plus accessible aux petites et moyennes entreprises, notamment avec le programme VMWare Go 1.5 qui permet de tester la solution de l'éditeur.
« La question est de savoir pourquoi cela a demandé tant de temps [la baisse des prix]», souligne Laura Didio, analyse chez Technology Intelligence Corp (ITIC). « La réponse est qu'ils pouvaient se permettre d'attendre, car ils avaient une très grande avance sur tous les autres acteurs du marché. Ils ont été en mesure de surfacturer, tant que les utilisateurs ne rouspétaient pas. « VMware, qui a toujours considéré que ses plus gros clients ne le lâcheraient pas, a pu maintenir des prix élevés. Il y a deux ans, l'éditeur avait pourtant opéré une petite révolution en offrant gratuitement son hyperviseur ESXi. La reconnaissance que la virtualisation devenait une simple commodité et que la vraie valeur pour les clients était du côté de la gestion des environnements virtualisés.
La baisse de prix opérée cette semaine, de 995 $ à 495 pour vSphere Essentials, a été précipitée et fait suite à une promotion proposée depuis plusieurs mois par VMware. vSphere Essentials comprend l'hyperviseur et des outils tels que le thin provisionning pour le stockage, mais pas de fonctionnalités avancées comme la migration en temps réel. « Nous avons testé cette promotion ces quatre derniers mois et nous avons été très agréablement surpris par les résultats », explique Bogomil Balkansky, vice-président marketing produit chez l'éditeur de Palo Alto. « Il s'avère que 500 $ est un peu ce chiffre magique qui ne nécessite pas de passation de marché. La grande majorité des administrateurs ou des gestionnaires de centre de calcul peuvent justement acheter un outil à ce prix sans passer par un long cycle d'approvisionnement. L'augmentation de volume a été très importante, nous avons donc décidé de transformer ce test en promotion permanente. "
[[page]]
Par ailleurs, VMware passe à une tarification par VM pour la gestion de ses produits, tels que Site Recovery Manager et AppSpeed, en réponse à la demande des clients,
explique Bogomil Balkansky. Dans le cas d'une reprise après sinistre, les clients se demandaient pourquoi ils devaient payer pour protéger toutes les VM sur un processeur alors que seules certaines machines virtuelles étaient considérées comme critiques. Même avec cette souplesse, Bogomil Balkansky estime que la facturation réelle des clients - avec le modèle de tarification par VM - sera grosso modo la même que précédemment.
VMware baisse également le prix de son service Motion, qui permet de transférer une charge de travail d'un serveur à un autre sans avoir besoin de redémarrer, en ajoutant la fonction à vSphere 4.1. Les deux solutions qui recevront vMotion sont Essentials Plus, qui coûte 583 $ par processeur, ou 3495 $ pour six CPU;
et Standard, qui coûte 995 $ par processeur et 6.000 $ environ pour six
puces. « Nous avons voulu démocratiser une fonction clef en intégrant la version complète de vMotion à ces packs », explique Serge Robe.
VMware ne va pas jusqu'à baisser le prix de ses solutions haut de gamme, notamment la plus couteuse Enterprise Plus. Cette version est toujours vendue 3.495 $ pour un seul processeur et intègre la tolérance aux pannes, la récupération de données, le commutateur virtuel Cisco Nexus 1000V, et de nombreuses autres fonctionnalités.
[[page]]
vSphere 4.1, qui est maintenant disponible, est présentée comme la meilleure solution pour bâtir un cloud car elle permet une plus grande évolutivité et assure de meilleures performances. Comme les versions précédentes, vSphere 4.1 permet la construction de clusters qui peuvent être gérés comme une entité unique, mais ces groupes peuvent maintenant inclure jusqu'à 3000 machines virtuelles, soit le double de la précédente mouture. VMware promet également des migrations live jusqu'à cinq fois plus rapides, mais cela dépend essentiellement de la mise à niveau de clients qui doivent passer du Gigabit Ethernet au 10 Gigabit Ethernet. Chaque migration live prend environ deux minutes, selon Bogomil Balkansky.
Un des objectifs de VMware consiste à assurer le contrôle non seulement sur le marché des serveurs, mais également sur celui du stockage et du réseau. «Historiquement, nous avons probablement causé une certaine tension entre les équipes serveurs et stockage », explique encore Bogomil Balkansky. À partir de vSphere 4.0, VMware a tenté de donner aux administrateurs de serveurs une meilleure visibilité sur l'administration du stockage. Aujourd'hui, l'éditeur améliore les performances de vMotion, qui déplace des VM d'un réseau de stockage physique à un autre, en déchargeant de cette tâche le serveur au profit des baies de stockage avec Storage I/O Control et Network I/O Control. Alors que VMware est historiquement axé sur les serveurs, le vice-président marketing prédit que les prochaines éditions de vSphere se concentreront sur la fourniture de « capacités analogues dans le stockage et le réseau. »
WPC 2010 : Azure s'invite sur des appliances Fujitsu, Dell ou HP
Robert Wahbe, Corporate Vice-President Server and Tools chez Microsoft, a expliqué dans un blog que cet ensemble permettrait aux entreprises d'exploiter un service Cloud en interne ou pour leurs propres clients. « Les fournisseurs de service, les administrations et les grandes entreprises qui envisageraient d'acheter, par exemple, 1000 serveurs de ce type la fois, seront en mesure de mettre en oeuvre le service dont ils ont besoin, » a déclaré Robert Wahbe. «Il s'agit là d'un matériel hardware spécifique, verrouillé, équivalent à des centaines de milliers de serveurs,» a déclaré Amy Barzdukas, directrice de la gestion produits, dans une interview accordée à IDG News Service. «Comme tout type d'appareil, celui-ci est standardisé et clé en main, prêt pour permettre aux clients de déployer Windows Azure dans leurs centres de données. » Celle-ci a déclaré que le produit était adapté aux entreprises qui souhaitent faire tourner leurs propres logiciels en interne et en externe sur des services Azure, ajoutant que la charge de travail pouvait être facilement déplacée d'un serveur Azure à l'autre. « Il donne de l'ampleur à la plate-forme, avec l'avantage supplémentaire de pouvoir contrôler ce qui se passe localement, » a t-elle dit.
Une commercialisation pour l'instant limitée
L'appliance, dont la production est pour l'instant limitée, sera proposé par Dell, Fujitsu et Hewlett-Packard sur leurs propres matériels, a indiqué Amy Barzdukas, lesquels prévoient d'offrir un service Azure à leurs clients. eBay a également l'intention d'utiliser cette solution pour des opérations internes. Une commercialisation à plus grande échelle est prévue plus tard cette année. « L'appliance Azure disposera de toutes les fonctionnalités avec le service Azure propre à Microsoft, » a précisé Amy Barzdukas. Microsoft indique qu'elle fera la promotion de l'offre sur son site Internet dès lundi.
Crédit photo : Microsoft
[[page]]
Bob Muglia, président de l'activité Serveurs de Microsoft, a précisé durant la WPC que Windows Azure Appliance pourra gérer jusqu'à 1000 noeuds et que la plate-forme sera livrée avec Windows Azure, Microsoft SQL Azure et un ensemble d'outils de configuration. Une fois installé dans le datacenter du client, l'appliance sera relié à la propre instance Azure de Microsoft. "Nous allons maintenir un flux de nouveaux logiciels pour tous les appliances afin qu'ils soient à jour », dit-il, ajoutant que le client conservera toutefois le contrôle sur des facteurs tels que quand appliquer les mises à jour et les services à déployer.
Une plate-forme fermée
Bobb Muglia a également précisé que si l'éditeur mettra à la disposition de ses clients les spécifications matérielles nécessaires au bon fonctionnement de sa solution dédiée Azure, sa mise en oeuvre n'a pas vocation à être aussi universelle que celle de Windows Server, qui a été conçu pour une gamme de matériels serveurs aussi vaste que possible.
Parmi les autres annonces faites par Microsoft depuis le début de cette conférence, à noter, le lancement de la version release candidate du System Center Virtual Machine Manager Self Service Portal, un pack d'outils de virtualisation pour Windows Server, ainsi que celui d'une version bêta de Windows 7 Service Pack 1 et de Windows Server 2008 R2 Service Pack 1.
Colt se lance dans la création de datacenters modulaires
Colt change un peu de métier ou plus exactement s'intéresse à l'urbanisme des centres de calcul. L'opérateur vient en effet de se doter d'une division, baptisée « Colt Data Center Services » avec comme spécificité la modularité. L'objectif est de créer des salles informatiques en quatre mois, par tranche de 500 m². Ces datacenters sont conçus, assemblés et testés dans des usines validées avant d'être ensuite transportés sur site où Colt reconstruit et met en service le datacenter.
Un effort particulier a été mis sur l'énergie et la climatisation. La configuration de base minimale pour la capacité énergétique est de 750 kW et une densité énergétique de 1500 W/m² pour une salle de 500 m².
La modularité fait des adeptes
D'autres acteurs ont avancé des démarches similaires à celles de Colt. Ainsi, HP a présenté lors d'un événement à Francfort, son Pod, un datacenter qui s'intègre dans des containers. Cette initiative vient d'ailleurs d'être retenue par EDF Optimal Solutions, qui s'occupe de la partie énergétique. HP indique que le Pod, peut regrouper jusqu'à 3500 noeuds de serveurs, soit l'équivalent d'un datacenter en dur de 400m². Le déploiement peut se faire en moins de 6 semaines, soit un peu moins que l'offre de Colt. Par contre les deux acteurs se refusent à donner le prix de leurs solutions.
Le cloud bientôt plus important qu'Internet ?
Les développeurs du réseau Internet avaient une vision relativement claire et des outils pour parvenir à la forme actuelle du web. Cependant, Mike Nelson, professeur à l'université de Georgetown, s'est demandé, durant la conférence World Future Society de Boston, si les chercheurs d'aujourd'hui avaient une perspective suffisante pour qu'Internet continue son expansion. « Dans les années 90, on savait ce qu'Internet allait devenir. Mais aujourd'hui, il est très difficile d'appréhender le futur avec le développement technologique et les modifications des comportements des Internautes (réseaux pervasifs, créateur de contenus,etc.) » a-t-il affirmé.
L'argument économique du cloud
Pour lui, le cloud computing va devenir un élément central, « encore plus important que le web ». Le cloud rendra possible l'accès, pour les pays émergents, à des logiciels autrefois réservés aux pays riches. Les PME-PMI économiseront une partie de leur capital en utilisant des services tels qu'Amazon EC2 ou Windows Azure pour stocker et calculer leurs données au lieu d'acheter des serveurs dédiés. Des capteurs devraient par ailleurs commencer à apparaître dans les éclairages, les appareils portatifs et les outils agricoles par exemple, afin de transmettre les données par le web et vers le cloud.
Si les résultats de l'étude « Internet and American Life Project » du centre de recherche Pew reflètent effectivement l'attitude des États-Unis envers Internet, les prédictions de Mike Nelson pourraient au final s'avérer exactes. Le sondage effectué en 2000 sur l'utilisation des services cloud avait récolté moins de 10% de réponses positives, alors que celui de mai 2010 a atteint 66% d'utilisateurs, selon Lee Rainie, directeur du projet d'étude qui s'est aussi exprimé à la conférence. Ce sondage a aussi révélé un usage plus intensif des dispositifs mobiles se connectant à ces données stockées sur le cloud.
Des obstacles menacent le nuage
Pour autant, Mike Nelson, réaliste, a mis en garde contre les éventuels obstacles dus aux instances de régulations et aux éventuelles limites de développement. « De nombreuses forces pourraient nous pousser hors des nuages » a-t-il indiqué. D'après lui, les entreprises devraient développer des services sur le cloud qui autoriseraient le transfert de données d'une plateforme à l'autre, plutôt que de bloquer les clients chez un seul fournisseur attitré à travers des technologies qui pourraient devenir intégralement propriétaires.
Crédit Photo: DR
[[page]]
Les clouds seraient alors partiellement ouverts, au mieux. Optimiste, il pense qu'il y a « une chance, en insistant, d'arriver vers un cloud unique et universel ». Mais il souligne d'autres risques de perturbation : les régulations gouvernementales, de la lutte contre le piratage par les industries du divertissement, ou bien des pays craignant l'hégémonie nord-américaines et qui voudraient créer leurs propres clouds.
Des études peu pertinentes sur les effets d'Internet
Le centre de recherche Pew ne s'est pas contenté d'étudier le rôle du cloud et d'Internet, il s'est aussi intéressé de près à comment le web réduisait peut-être l'intelligence ou redéfinissait les relations sociales et le partage de données personnelles.
Sur la possibilité d'une intelligence décroissante, le centre a conclu que les caractéristiques personnelles des individus déterminaient leurs usages du web. Entre une utilisation à vocation de recherche, d'exploration et d'apprentissage, et une autre consistant à accepter le premier résultat offert par un moteur de recherche, tout cela dépendrait en effet de l'éducation des individus, et non pas de la technologie. C'est donc un résultat quelque peu couru d'avance et n'apportant pas un intérêt particulier à l'avancée des recherches dans le domaine. Pour les interactions sociales, les interviewés ont déclaré qu'Internet ne leur avait pas nuit, et qu'ils réalisaient que le réseautage social ne menait pas à des amitiés particulièrement approfondies. Pour autant, les jeunes adultes sont fortement critiqués pour le dévoilement de leurs informations personnelles, et l'étude montre que ce partage n'est pas en voie d'extinction. Ces pratiques, d'après Lee Rainie, seraient en effet bien installées dans les habitudes.
(...)
< Les 10 documents précédents | Les 10 documents suivants > |