Les grands acteurs du web vont-ils vraiment commencer à prendre des mesures pour faire barrage aux faux contenus et à la désinformation qui circulent sur leurs sites extrêmement fréquentés, sur lesquels transitent chaque jour des centaines de millions d’utilisateurs. Et pourront-ils y arriver ? En début de semaine, Google et Facebook ont fait un pas dans cette direction. La firme de Mountain View a indiqué qu’elle allait interdire à ceux qui diffusaient de faux contenus d’utiliser sa plate-forme publicitaire AdSense. L’objectif est au moins de les empêcher d’en tirer des revenus. De son côté, Facebook a également mis à jour sa politique publicitaire. « Nous n’intégrons et ne diffusons pas de publicité sur des apps ou sur des sites qui contiennent des contenus qui sont illégaux, erronés ou trompeurs, ou qui incluent de fausses nouvelles », a indiqué le réseau social dans une déclaration citée par l’agence de presse Reuters.

La firme de Mark Zuckerberg a ajouté qu’elle y veillerait en continuant à examiner minutieusement les fournisseurs de contenus. Pourtant, pas plus tard que la semaine dernière, au lendemain de l’élection de Donald Trump, le CEO de Facebook pensait encore que « sur l’ensemble du contenu de Facebook, plus de 99% de ce que l’on voit est authentique. Il n’y a que très peu de fausses nouvelles ou de canulars », essayait-il de convaincre dans un billet, après s’être vu accusé d’avoir favorisé l’élection du candidat républicain en laissant circuler de fausses informations. « Dans l’ensemble, il est très improbable que les canulars aient changé les résultats de cette élection dans un sens ou un autre », estimait encore Mark Zuckerberg. Des paroles rassurantes qui n’ont pas probablement pas convaincu tout le monde.

Difficile de détecter les contenus de désinformation

Pour l’instant, les démarches annoncées par Google et Facebook ne vont pourtant pas empêcher les fausses nouvelles de circuler, ni les sites de désinformation d’apparaître en haut des résultats du moteur de recherche, comme cela s’est encore produit il y a quelques jours : un résultat renvoyait alors sur un décompte final des votes à la présidentielle américaine qui prétendait que Donald Trump avait gagné le vote populaire. Google a précisé qu’il allait par la suite « restreindre la diffusion de publicités sur les pages qui dénaturent, déforment ou cachent des informations sur l’éditeur, le contenu de l’éditeur ou l’objectif principal du propriétaire du site », rapporte encore Reuters. La division d’Alphabet n’a toutefois pas expliqué comment elle allait s’y prendre.

Pour Facebook, la tâche paraît également difficile, surtout lorsque l’on considère le nombre de fausses informations qu’ont pu relayer ses outils News Feed et Trending Topics, à l'instar de celle prétendant que le Pape François soutenait Donald Trump, partagée par 100 000 utilisateurs, rappelle The Washington Post. Pourtant, le réseau social aurait récemment travaillé sur un outil permettant d'identifier de faux contenus, suggère le site Gizmodo. Mais il aurait renoncé à le déployer par crainte qu'il n'affecte de manière disproportionnée les sites web conservateurs, entraînant du coup une réaction contre-productive. Face à la multiplication de faux contenus sur les faits politiques, des sites comme FactCheck.org ou PolitiFact se sont donné pour mission de déconstruire les canulars, comme Hoaxbuster le fait déjà depuis 2000.

De son côté, Twitter vient aussi de réagir pour modérer ses contenus, mais sur un autre terrain. Le site de microblogging doit ainsi livrer dans les prochains jours un outil pour protéger ses utilisateurs des trolls, ces internautes perturbateurs qui sèment leurs propos désagréables sur le web à chaque détour de forum ou de réseau social. Les familiers de Twitter pourront donc bientôt bloquer des mots-clés ou des phrases qu’ils ne veulent pas se voir notifier. Instagram avait déjà eu une démarche similaire en septembre.