Flux RSS

108538 documents trouvés, affichage des résultats 3561 à 3570.
< Les 10 documents précédents | Les 10 documents suivants > |
(08/06/2011 16:27:42)
Facebook active la reconnaissance faciale par défaut
Si vous êtes inquiets au sujet de certaines photos de vous-mêmes sur Facebook, vous pouvez désormais les supprimer. Hier, l'éditeur de solutions de sécurité Sophos a indiqué que le réseau social avait activé un système de reconnaissance faciale des photos sur les comptes de ses membres sans informer les utilisateurs de ce changement. Facebook avait lancé ce service en décembre dernier, mais il n'était opérationnel qu'aux Etats-Unis.
Il y a probablement de bonnes raisons à cela : en dehors des Etats-Unis, les lois de confidentialité sont beaucoup plus strictes, et le site aurait pu se trouver sur le gril assez rapidement.
Cette fonctionnalité n'était pas immédiatement disponible pour tous, et les utilisateurs de Facebook ne pouvaient pas se désengager à l'avance afin d'éviter d'être taggés en cas de photos peu flatteuses. Au lieu de cela, ils devaient attendre d'être marqués pour figurer ou pas dans la photo. Le véritable problème n'incombait pas nécessairement à la technologie elle-même, mais plutôt à sa mise en oeuvre.
Une procédure semi-automatique
Facebook utilise la reconnaissance des visages pour inciter les « amis » des membres à les étiqueter, ce qui signifie que les photos ont de grandes chances d'être marquées. En effet, les utilisateurs sont plus enclins à tagger quelqu'un si le réseau social émet une notification et suggère qui est cette personne. Ce marquage n'est pas très différent par rapport à la façon dont les choses se passent habituellement - les amis Facebook peuvent toujours marquer des photos d'autres membres, et ces derniers auront la possibilité de les dé-taguer manuellement. Ce qui fait toutefois la différence, c'est que le processus est maintenant semi-automatique, ce qui constitue un affront aux yeux de certains, comme l'éditeur Sophos : « L'obligation pour Facebook ne devrait pas porter sur le désengagement mais plutôt sur l'engagement de ses utilisateurs à accepter cette fonction de reconnaissance des visages », regrette Graham Cluley, consultant pour le compte de l'éditeur d'antivirus. Pour lui, c'est comme si Facebook portait atteinte à la vie privée de ses membres en utilisant la ruse. Il considère également que ce n'est pas au réseau social de faire le choix.
De son côté, un autre géant du Net, à savoir Google semble ne porter aucun intérêt pour la reconnaissance faciale. Lors du colloque D9 de All Things D, le patron de Google Eric Schmidt avait révélé que Google avait travaillé à l'intégration de la reconnaissance faciale avant d'y renoncer en raison du risque élevé d'abus potentiels.
(...)(08/06/2011 14:37:49)
World IPv6 Day : Des centaines de sites testent le protocole
La situation a atteint une limite, puisque, au début de l'année, le pool d'adresses IPv4 gérées par l'IANA (Internet Assigned Numbers Authority) a été épuisé. Les dernières adresses IPv4 restantes sont maintenant entre les mains des registres Internet régionaux comme le RIPE Network Center Control (RIPE NCC), l'American Registry for Internet Numbers (ARIN) et l'Asia Pacific Network Information Centre (APNIC), qui, en avril, avait annoncé qu'il disposait encore d'un petit nombre d'adresses. C'est début 2010, quelques semaines avant que l'IANA remette ses dernières adresses, que le projet d'une Journée mondiale de l'IPv6 était lancé. Plus de 400 entreprises, dont YouTube et Facebook, doivent activer aujourd'hui, et pendant 24 heures, l'IPv6 sur un nombre important de sites web pour tester le protocole. L'objectif est double : accélérer le rythme de déploiement de l'IPv6 et identifier d'éventuels problèmes techniques pour les résoudre avant d'entamer un déploiement plus large.
Des tests indispensables avant le grand saut
Les équipements et les logiciels des utilisateurs finaux et les systèmes opérationnels utilisés par les opérateurs, dont certains ont été conçus pour les adresses IPv4 plus courtes, mobiliseront toute l'attention. Mais, selon l'équipementier Ericsson, il existe plusieurs façons de contourner ces problèmes. Pour que l'IPv6 fonctionne, tout ce qui permet de le connecter à l'Internet doit être compatible. Reste qu'au final, les opérateurs devront le mettre en route sur leurs réseaux mobiles et fixes. Ceux-ci prévoient d'introduire l'IPv6 dans les deux prochaines années, et de l'utiliser parallèlement à l'IPv4.
« AT&T offre déjà un VPN et un service Internet gérés en IPv6, et prévoit d'élargir son offre entreprise au quatrième trimestre de cette année pour ajouter des services de sécurité, d'hébergement et des offres CPE gérés en IPv6, » comme l'a déclaré Brooks Fitzsimmons, vice-président adjoint pour la transition IPv6 chez l'opérateur américain. « Au premier trimestre de l'année prochaine, AT&T supportera l'IPv6 pour ses services aux consommateurs, y compris le U-Verse et le DSL, » a-t-il ajouté. « Le défi pour AT&T et d'autres opérateurs, c'est que l'IPv6 est plus difficile à mettre en oeuvre dans certains réseaux que dans d'autres, parce que certains réseaux sont plus matures que d'autres, » a expliqué le vice-président. « Le processus de mise à niveau doit être adapté à l'infrastructure de chaque opérateur pour qu'elle puisse prendre en charge l'IPv6, » a-t-il ajouté.
Certains opérateurs obligés de passer plus vite à IPv6
« Vodafone, qui est en train de tester l'IPv6 sur son réseau portugais, prévoit de terminer ses essais le 31 mars, au terme de l'exercice fiscal 2012. Après cela, l'opérateur se donne trois ans pour mettre progressivement en oeuvre le protocole dans tous les pays où il intervient, » a déclaré un porte-parole de l'entreprise.
[[page]]
Deutsche Telekom propose déjà un IPv6 compatible avec le mail, et des services d'hébergement et d'authentification Internet. Le réseau de l'opérateur allemand commencera à utiliser l'IPv6 au début de l'année prochaine. De même, « il procédera à un test de terrain à partir du mois de novembre, » selon un porte-parole. Lorsque le réseau sera compatible, les nouveaux utilisateurs obtiendront deux adresses, une adresse IPv4 et une IPv6 et décideront ensuite laquelle des deux ils veulent utiliser.
La France a encore de la marge
D'après Christian Jacquenet, responsable du programme IPv6 chez France Télécom, c'est la disponibilité des adresses IPv4 dans différentes parties du monde qui déterminera le rythme de déploiement de l'IPv6. Par exemple, la Pologne va commencer à utiliser le protocole dès l'année prochaine, parce que, à cette période que le nombre d'adresses IPv4 sera insuffisant pour répondre à la demande. « La France ne commencera à utiliser l'IPv6 qu'à partir du premier semestre 2014, » a déclaré le responsable FT. La taille du marché français laisse supposer que le déploiement du nouveau protocole prendra plus de temps.
« France Telecom procède également à un certain nombre d'essais sur le terrain en Afrique, » a indiqué Christian Jacquenet. Selon les opérateurs, l'arrivée de l'IPv6 devrait agir comme un catalyseur dans les services mobiles et les communications machine-à-machine, puisqu'il apporte un pool d'adresses quasi illimité, plus des capacités d'auto-configuration.
Tribune d'Alan Way : Avons-nous réellement besoin d'un Internet totalement nouveau avec l'IPV6 ?
Le NAT existe depuis longtemps déjà et il permet au routeur d'un bureau ou d'une résidence privée de jouer un rôle similaire à celui du système de casiers d'un bureau de poste : le courrier destiné à une même adresse se voit attribuer des numéros de casiers internes pour s'assurer qu'il atteigne bien la bonne destination. C'est assez simple lorsque la communication débute en interne, par exemple lorsque vous parcourez le web, la requête sort via le routeur ou le firewall du bureau, qui attribue alors une adresse publique, ensuite utilisée pour la réception du message retour. Mais lorsque la requête provient de l'extérieur, comme dans le cas des messages en Voix sur IP (VoIP), comment le routeur peut-il savoir à quelle adresse interne il doit la transmettre ? Un nouveau niveau de complexité de « NAT Transversal » est alors nécessaire.
Avec de si nombreux équipements mobiles permettant d'accéder à internet, une seule adresse NAT par bureau ou par résidence n'est plus suffisante. Nous avons donc la possibilité de passer au NAT444 (aussi connu sous les appellations CGN ou LSN). Il ajoute une seconde couche de NAT, permettant ainsi à un fournisseur de services internet (ISP) d'utiliser une adresse IPv4 unique pour un grand nombre de résidences, chacune d'elles utilisant ensuite le NAT pour s'adresser à ses équipements internes.
Le NAT444 étend grandement les possibilités d'adressage IPV4, mais rend-il l'IPv6 redondante pour autant ? La réponse est clairement "non", pas plus que le fait de savoir poser un plâtre rend la chirurgie redondante. Tout d'abord, la charge de transfert se trouve doublée : en effet, le NAT s'effectue une première fois au niveau de la passerelle du bureau puis une seconde fois au niveau de la passerelle du fournisseur de services, avant que la communication puisse partir sur le réseau public. Mis à part les implications évidentes en termes de performances, le fournisseur de services internet va également devoir s'assurer qu'il n'existe aucun conflit entre les adresses employées au sein de son réseau par l'utilisateur et les adresses privées fournies par l'ISP.
Pour lire la suite de la tribune d'Alan Way, rendez-vous dans notre espace Blog Experts (...)(08/06/2011 13:46:11)
24 heures pour tester l'IPv6
Le 8 juin est la journée mondiale de l'IPv6. Pendant 24 heures, les acteurs du net prennent part à un test grandeur nature du système d'adressage Internet Protocol version 6 ("IPv6"), afin d'en détecter les failles et encourager l'adoption de ce nouveau standard.
Les twitternautes souhaitent à leurs followers un "Happy IPv6 Day", échangent des statistiques sur le test en cours et signalent les diverses avaries subies par certains sites.
"87 des 100 premiers sites du top 1000 Alexa ont au moins une adresse IPv6 dans le DNS! 11 fois plus qu'hier", indique un microblogueur.
Après le piratage de ses systèmes, RSA propose de remplacer ses jetons SecurID
Depuis le mois de mars, les clients de RSA se demandent s'ils peuvent continuer à faire confiance aux tokens de la société, qui les avait vaguement mis en garde après l'intrusion reconnue de pirates dans ses systèmes. Il y a deux semaines, des hackers ayant détourné la technologie SecurID ont contraint le groupe de défense américain Lockheed Martin à fermer l'accès à son réseau privé virtuel.
Dans une lettre envoyée à ses clients, RSA a confirmé que l'incident de Lockheed Martin était lié à sa technologie SecurID. Des informations « volées à RSA en mars dernier ont servi pour mener une attaque de plus grande envergure contre Lockheed Martin, » a écrit Art Coviello, le président exécutif de RSA, dans ce courrier. Néanmoins, l'entreprise reste « très confiante dans son produit SecurID, » même si elle reconnait que la récente attaque contre le groupe de défense américain et des préoccupations justifiées sur le piratage « ont pu entamer la tolérance de certains clients quant au risque global encouru. »
En plus du remplacement des jetons SecurID, la société offre également à ses clients son service de surveillance des transactions RSA Transaction Monitoring, utilisé par certaines banques pour bloquer les transactions frauduleuses en ligne. Selon un porte-parole de RSA, « le déploiement de nouveaux jetons peut être compliqué pour les banques qui comptent un grand nombre de clients utilisant les jetons SecurID, et le RSA Transaction Monitoring leur apporte une autre option de verrouillage. »
Un remplacement devenu nécessaire pour beaucoup
Toutes les soixante secondes, les tokens SecurID génèrent un nouveau code à six chiffres que les utilisateurs peuvent taper en même temps que leur mot de passe pour accéder au réseau de leur système d'information. Ce chiffrage supplémentaire pour l'identification permet de sécuriser les réseaux, même quand les mots de passe sont subtilisés. Mais aujourd'hui, la sécurité de la technologie RSA est mise en cause. Les experts en sécurité estiment que les hackers qui se sont introduits dans les systèmes RSA se sont emparés du code source nécessaire pour générer de faux jetons. Mais ils auraient besoin de s'introduire à nouveau dans les serveurs de RSA pour savoir quel jeton particulier est utilisé par tel ou tel client. C'est ce qui s'est passé, semble-t-il, avec Lockheed Martin, même si le groupe de défense a refusé de commenter l'incident.
Pour remplacer ses jetons, RSA peut utiliser de nouvelles lignes de code, inconnues des hackers, pour générer les séquences de chiffres. Le département sécurité d'EMC dit avoir livré à ce jour environ 40 millions de tokens. L'entreprise ne veut pas dire combien lui coûteront ces cyber-attaques, mais, même avant le lancement du programme de remplacement SecurID, celles-ci lui ont déjà coûté cher. Ainsi, à la date du dernier bilan financier, fin mars 31, EMC a indiqué que la marge brute du groupe RSA avait chuté de 67,6 à 54,1 % sur une année. Dans le rapport d'EMC sur les bénéfices trimestriels, cette baisse a été imputée à la cyber-attaque.
Crédit photo : RSA
IDC revoit à la baisse ses prévisions de ventes de PC
Dans le détail, IDC s'attend à ce que le segment des PC de bureau enregistre une croissance de 0,8% (147 millions d'unités) contre 6,6% (214 millions d'unités) pour celui des ordinateurs portables. En revanche, les ventes de ces deux types de produits devraient reculer sur les marchés matures : -4,8% pour les desktop et -3,2% pour les portables. Dans son ensemble, les nombre d'ordinateurs commercialisés dans le monde devrait ainsi atteindre 361,6 millions d'unités sur l'ensemble de l'année 2011. A partir de 2012, IDC s'attend à un rebond du secteur qui devrait connaître une progression comprise entre 10 et 11% jusqu'en 2015.
Produits informatiques en fin de vie, recyclage assuré avec Recyclea
Fini l'empilement des vieux PC, des moniteurs, des imprimantes obsolètes et autres produits sur les armoires, au fond des bureaux ou des ateliers. La société Recyclea, qui vient d'être référencée par ETC, propose la Greenelle box. Vous commandez par Internet ou par le revendeur ETC, deux formats de box sont proposés, qui permettent d'expédier (enlèvement sous 72 heures) vos appareils usagés au siège de Recyclea (à Domerat en Auvergne). Là, ils sont soit détruits, soit recyclés.
L'entreprise dispose d'un entrepôt de 17 000 mètres carrés. Elle peut traiter en parallèle 720 machines, un rapport d'audit est édité pour chacune d'elles après test. L'entreprise cliente, celle qui s'est défait de ses appareils usagés, reçoit son certificat de recyclage, le bilan matière et le bordereau de suivi des déchets.
Elle emploie 80% de handicapés
Recyclea est une SAS détenue à 55% par SCC et à 45% par une entreprise régionaleenvironnement recycling. Elle veut créer 130 emplois en trois ans et peut intervenir sur toute la France. Recyclea est une entreprise doublement intéressante, l'aspect « vert » s'accompagne d'un volet social, elle emploie 80% de handicapés, c'est une entreprise adaptée (au sens de la loi du 11 février 2005). En travaillant avec elle, les entreprises peuvent s'acquitter partiellement de leur contribution Agefiph (les normes qui obligent toute entreprise à employer 6% de salariés handicapés).
Par ailleurs, Recyclea est agréée Microsoft authorized Refurbisher. C'est la première société en France dans ce cas. Les matériels recyclés proposent Windows et satisfont aux conditions d'authenticité des logiciels, imposées par l'éditeur.
Pour analyser les retours clients, Vente-Privée a choisi Viavoo en SaaS
Le service Relations Membres intégré de Vente-Privee.com souhaitait soigner son facteur de différenciation, la qualité de sa relation avec ses membres, ce qui supposait de bien comprendre les opinions et les sentiments de ceux-ci. L'objectif était de remonter autant les tendances dans les incidents que les facteurs de satisfaction ou le suivi d'indicateurs de qualité de service.
Un social-CRM en mode SaaS
Pour cela, Vente-Privee.com a choisi de recourir à une solution en mode SaaS, Smarter Feedback de l'éditeur français Viavoo. Cet outil collecte tous les canaux d'expression des clients (e-mails directs, dialogues dans les chats de relation-clients, forums, blogs, Facebook, Twitter...), les analyse et les restitue sous forme d'états décisionnels.
Au contraire d'outils plus classiques d'intelligence économique qui procèdent par remontées de mots clés, Smarter Feedback réalise à la fois une analyse sémantique (des termes employés) et une analyse syntaxique (place des termes dans la phrase et sens impliqué), ce qui permet de différencier, par exemple, « ceci ne vaut rien » de « rien ne vaut ceci ». La restitution, de type décisionnelle, se base sur une catégorisation et une quantification des concepts avec une capacité de filtrage sur critères.
Il est ainsi possible de différencier l'avis des clients selon le canal (Facebook ou les e-mails entrants par exemple). Enfin, le système gère des alertes en cas d'incidents comme il permet de suivre des indicateurs de progression de la qualité de service. Par exemple, il est possible de détecter si un type d'incident (déception sur la qualité des produits...) est systématiquement lié à un fournisseur donné.
Une injection vers la GRC classique encore théorique
Viavoo indique que son service est capable d'interagir avec des GRC traditionnelles grâce à ses API, y compris en injectant des données issues de l'expression sur Twitter ou Facebook dans les comptes clients concernés, sous réserve que l'entreprise dispose des pseudos employés par ses clients sur ces services. Mais ce service est de ce fait complexe à mettre en oeuvre. Il n'est pas à ce jour opérationnel chez un client réel.
Le budget du projet est confidentiel mais Viavoo indique que son offre est disponible à partir de 1500 euros/mois en version de base, les tarifs évoluant en fonction du nombre d'accès et des volumes traités (jusqu'à un peu moins de 200 000 euros/an, 3000 euros/mois étant fréquent). La DSI doit uniquement mettre en place les flux internes vers Viavoo et la mise en production d'un projet se fait donc en moins de deux mois à partir de la commande.
Crédit photo : Copyright vente-privee.com
Les technologies de l'IBM Watson appliquées au big data
Mi-février, le superordinateur Watson conçu par IBM a battu deux champions au jeu télévisé Jeopardy, un quizz de culture générale où il s'agit de trouver une question à partir d'une réponse. Pour y parvenir, Watson a, entre autres, absorbé une quantité phénoménale d'informations disponibles sur le web et d'une qualité toute relative. Des données qui ont nourri ses multiples algorithmes sollicités à chaque réponse pour aboutir rapidement à une question associée à un indice de confiance. Une partie du problème auquel se sont attelés les 25 informaticiens d'IBM qui ont développé Watson est similaire à celui que rencontrent les Google et Facebook lorsqu'il s'agit de scanner d'énormes quantités de données non-structurées pour répondre rapidement à une requête. Un problème, ou plutôt une solution, dont ils ont d'ailleurs fait un modèle d'affaires avec le succès que l'on connaît.
Bien loin des laboratoires de recherche, des plateaux télé et des géants d'Internet, les entreprises, grandes et petites, font face à des défis analogues. D'un côté, elles sont de plus en plus conscientes que l'analyse des données et les découvertes (insights) qui en résultent sont essentielles au pilotage informé de leurs opérations et à leur compétitivité, d'où l'essor des projets de business intelligence. De l'autre, elles croulent sous une masse indigeste d'informations de toutes sortes et de toute provenance le plus souvent négligées et considérées comme un problème. Disposer d'un Watson est sans doute un rêve que caressent beaucoup de leurs décideurs.
Selon une étude IDC commandée par EMC, l'univers digital - la somme de toutes les données numériques - a crû de 1,2 million de pétaoctets en 2010 et pourrait atteindre 35 millions de pétaoctets à l'horizon 2020. L'écrasante majorité de cette masse est constituée de textes et de fichiers audio et vidéo. Donc de données sans structure, contrairement à celles reposant dans une base de données classique. Cette déferlante concerne aussi les entreprises, qui sont sans cesse plus nombreuses à collecter des informations sur les réseaux sociaux, les outils collaboratifs et les centres d'appel. A cela s'ajoute de nouvelles données mises à disposition par des organismes publics ou générées par les senseurs dont sont équipés les smartphones.
Par leur énorme volume de l'ordre de plusieurs téraoctets, par leur qualité incertaine et par leur caractère fugace, ces big data ne ressemblent en rien aux données relationnelles qui alimentent les solutions de business intelligence usuelles (voir le graphique). Leur exploitation diffère tout aussi fondamentalement. Alors que la BI fournit des réponses exactes à des questions précises connues d'avance, l'exploration expérimentale des big data livre des réponses probables à des questions ad-hoc et suggère de nouveaux questionnements. Pour employer la métaphore de Tom DeGarmo, responsable des technologies chez PricewaterhouseCoopers: «Au lieu de trouver une aiguille dans une botte de foin, ces techniques permettent de chercher d'autres bottes de foin».
[[page]]
Il y a quelques années encore, ce type d'analyse à grande échelle était surtout pratiqué par des instituts de recherche scientifique (physique, astronomie, bioinformatique, finance), souvent à l'aide de superordinateurs extrêmement onéreux. Faute visibilité quant à leur potentiel, faute de compétences statistiques et faute de moyens technologiques et financiers, les entreprises ne s'y sont guère intéressées. Sous l'effet de la prolifération de données non-structurées (typiquement 80% des données d'une entreprise), le domaine connaît un intérêt nouveau dans des sociétés qui se demandent comment exploiter ces données brutes qui sommeillent ou qui n'ont pas (encore) fait l'objet de formalisation par les architectes. A l'affût de nouveaux besoins, plusieurs grands fournisseurs IT ont d'ailleurs acquis récemment des sociétés spécialisées dans le domaine du big data: EMC avec Greenplum, IBM avec Netezza, HP avec Vertica ou encore Teradata avec Aster Data Systems début mars. Un mouvement également suivi par plusieurs éditeurs de business intelligence qui élargissent leur offre à l'analyse de larges volumes de données. Le dénominateur commun de la plupart de ces solutions est leur utilisation du projet open source Hadoop dérivé des développements de Google.
Au début des années 2000, face à la croissance folle des contenus internet, Google a en effet dû développer sa propre solution pour être en mesure de continuer à les indexer en des temps raisonnables. Les ingénieurs de la société ont développé un système de stockage robuste et extensible (GFS) et un système de traitement des données répartissant les tâches sur un grand nombre de serveurs fonctionnant en parallèle et à même de synthétiser leurs résultats (MapReduce). Ainsi, au lieu de s'appuyer sur des algorithmes complexes et des ordinateurs surpuissants, la solution de Google utilise des batteries de serveurs standards, qui peuvent être ajoutés ou supprimés, auxquels sont confiées des tâches relativement simples. Le projet Hadoop est en fait une implémentation open source de MapReduce gérée par la fondation Apache, à laquelle sont venus se greffer d'autres composantes destinées aux big data, comme un système de fichiers distribué (HDFS) ou une base de données (HBase). Yahoo! est l'un des pionniers en la matière et coopère avec Facebook, dont le cluster Hadoop serait actuellement le plus gros du monde (voir le lien à droite).
La robustesse, le coût et la flexibilité de cette technologie séduisent également des sociétés hors du monde internet. Le New York Times a ainsi utilisé Hadoop pour générer les PDF de 11 millions d'articles publiés entre 1851 et 1922, et l'emploie désormais pour l'analyse de texte et le web mining. La chaîne de librairies Barnes & Noble l'utilise pour comprendre les comportements d'achats de ses clients sur ses divers canaux de distribution. Disney teste la technologie avec des objectifs similaires en s'appuyant sur des ressources dans le cloud et sur des serveurs inutilisés en raison de ses efforts de virtualisation. McAfee y fait par exemple appel pour détecter des corrélations parmi les spams. Pour simplifier les déploiements, ces sociétés et les autres utilisateurs précoces du big datausent fréquemment d'outils commerciaux basés sur Hadoop qui offrent une large palette de fonctions additionnelles.
[[page]]
Pour Abdel Labbi, responsable de la recherche en analyse de données au centre de recherche d'IBM à Zurich, ces développements technologiques conduisent à une convergence entre les données transactionnelles en mouvement, typiques des acteurs du web, et les données au repos des sociétés traditionnelles». Exemple de cette convergence, l'analyse en temps réel des données récoltées sur les points de vente pour dresser des profils de clients. «Ce n'est plus la requête qui va chercher des données, mais les données qui découvrent des phénomènes», estime le chercheur. Le lien avec Watson - l'ordinateur de Jeopardy - apparaît d'emblée et ouvre de nouvelles perspectives.
Watson : vers une analyse intelligente des données
Pourtant, de prime abord, le superordinateur d'IBM ne représente pas une innovation majeure mais plutôt une manière innovante de combiner des technologies existantes. Au niveau hardware, Watson est «massivement redondant» pour reprendre les termes du responsable de sa conception David Ferucci, avec une kyrielle de transistors économiques. Idem pour les algorithmes qui sont nombreux mais relativement simples. Quatre points cependant en font une machine assez prodigieuse pour disputer la victoire à des humains. Tout d'abord, sa capacité à exécuter simultanément de multiples algorithmes, donc à suivre plusieurs pistes en parallèle, à une très grande vitesse. Ensuite, sa faculté d'apprentissage qui lui permet avec le temps d'évaluer quelles ressources et quels algorithmes donnent les meilleurs résultats. Troisièmement, son habilité à décider entre plusieurs réponses et à leur attribuer un indice de confiance. Enfin, sa compréhension du langage naturel et donc son habileté à résoudre des ambiguïtés.
La combinaison de ces diverses facultés pourrait avoir dans le futur un impact considérable sur l'analyse de données en entreprise. La compréhension du langage permettrait par exemple d'étendre l'analyse aux requêtes orales des clients pour y répondre de manière automatisée. Associée aux recherches en analyse sémantique et des sentiments, ce type d'intelligence pourrait répondre précisément à une question ad-hoc, au lieu de simplement pointer sur une source dans laquelle se trouve la réponse comme le font des moteurs de recherche. Elles pourraient également résoudre le problème des données non-structurées en faisant émerger une structure sur la base de corrélations. Comme le dit Abdel Labbi, on pourrait déboucher sur des systèmes où «la donnée trouve la donnée».
Utiliser les réseaux sociaux pour suivre l'évolution des virus
Le service puise ses informations dans les données publiques disponibles sur Twitter et Facebook. Actuellement testée en version bêta, il devrait d'abord être proposé en juillet aux Etats-Unis, avant d'être élargi au monde entier, selon le président de la startup, Graham Dodge. L'utilisateur pourra repérer rhumes, virus et autres désagréments contagieux dont souffrent ses contacts et consulter les informations publiées à ce sujet sur leurs profiles.
Le site utilise l'API de Twitter pour localiser l'utilisateur puis son algorithme recherche les termes liés aux maladies comme "bronchites" et "pneumonies", selon le MIT qui a mentionné cette application dans sa revue Technology Review. Selon Graham Dodge, cet outil pourrait servir aux parents, qui pourront, par exemple, décider de ne pas emmener leurs jeunes enfants avec eux lors de certaines sorties.
Un autre site de ce type, HealthMap, montre les foyers contagieux dans le monde. Il suit les maladies à la trace pour informer voyageurs et pouvoirs publics. Egalement disponible sous forme d'application mobile, il s'est associé à Google pour récolter des informations à partir des recherches effectuées dans le moteur. HealthMap est disponible en plusieurs langues, dont le chinois et l'arabe.
(...)
< Les 10 documents précédents | Les 10 documents suivants > |