Les grands acteurs du web vont-ils vraiment commencer à prendre des mesures pour faire barrage aux faux contenus et à la désinformation qui circulent sur leurs sites extrêmement fréquentés, sur lesquels transitent chaque jour des centaines de millions d’utilisateurs. Et pourront-ils y arriver ? En début de semaine, Google et Facebook ont fait un pas dans cette direction. La firme de Mountain View a indiqué qu’elle allait interdire à ceux qui diffusaient de faux contenus d’utiliser sa plate-forme publicitaire AdSense. L’objectif est au moins de les empêcher d’en tirer des revenus. De son côté, Facebook a également mis à jour sa politique publicitaire. « Nous n’intégrons et ne diffusons pas de publicité sur des apps ou sur des sites qui contiennent des contenus qui sont illégaux, erronés ou trompeurs, ou qui incluent de fausses nouvelles », a indiqué le réseau social dans une déclaration citée par l’agence de presse Reuters.
La firme de Mark Zuckerberg a ajouté qu’elle y veillerait en continuant à examiner minutieusement les fournisseurs de contenus. Pourtant, pas plus tard que la semaine dernière, au lendemain de l’élection de Donald Trump, le CEO de Facebook pensait encore que « sur l’ensemble du contenu de Facebook, plus de 99% de ce que l’on voit est authentique. Il n’y a que très peu de fausses nouvelles ou de canulars », essayait-il de convaincre dans un billet, après s’être vu accusé d’avoir favorisé l’élection du candidat républicain en laissant circuler de fausses informations. « Dans l’ensemble, il est très improbable que les canulars aient changé les résultats de cette élection dans un sens ou un autre », estimait encore Mark Zuckerberg. Des paroles rassurantes qui n’ont pas probablement pas convaincu tout le monde.
Difficile de détecter les contenus de désinformation
Pour l’instant, les démarches annoncées par Google et Facebook ne vont pourtant pas empêcher les fausses nouvelles de circuler, ni les sites de désinformation d’apparaître en haut des résultats du moteur de recherche, comme cela s’est encore produit il y a quelques jours : un résultat renvoyait alors sur un décompte final des votes à la présidentielle américaine qui prétendait que Donald Trump avait gagné le vote populaire. Google a précisé qu’il allait par la suite « restreindre la diffusion de publicités sur les pages qui dénaturent, déforment ou cachent des informations sur l’éditeur, le contenu de l’éditeur ou l’objectif principal du propriétaire du site », rapporte encore Reuters. La division d’Alphabet n’a toutefois pas expliqué comment elle allait s’y prendre.
Pour Facebook, la tâche paraît également difficile, surtout lorsque l’on considère le nombre de fausses informations qu’ont pu relayer ses outils News Feed et Trending Topics, à l'instar de celle prétendant que le Pape François soutenait Donald Trump, partagée par 100 000 utilisateurs, rappelle The Washington Post. Pourtant, le réseau social aurait récemment travaillé sur un outil permettant d'identifier de faux contenus, suggère le site Gizmodo. Mais il aurait renoncé à le déployer par crainte qu'il n'affecte de manière disproportionnée les sites web conservateurs, entraînant du coup une réaction contre-productive. Face à la multiplication de faux contenus sur les faits politiques, des sites comme FactCheck.org ou PolitiFact se sont donné pour mission de déconstruire les canulars, comme Hoaxbuster le fait déjà depuis 2000.
De son côté, Twitter vient aussi de réagir pour modérer ses contenus, mais sur un autre terrain. Le site de microblogging doit ainsi livrer dans les prochains jours un outil pour protéger ses utilisateurs des trolls, ces internautes perturbateurs qui sèment leurs propos désagréables sur le web à chaque détour de forum ou de réseau social. Les familiers de Twitter pourront donc bientôt bloquer des mots-clés ou des phrases qu’ils ne veulent pas se voir notifier. Instagram avait déjà eu une démarche similaire en septembre.
Évidemment on doit s'inquiéter de la diffusion de fausses informations et de l'interprétation de l'information à son compte. C'est ce qu'on appelle le FUD. "Le FUD (Fear, Uncertainty and Doubt) est une technique généralement commerciale de mise en abîme du concurrent, dans l'objectif de se faire passer pour l'honnête homme de la situation. Cette technique essaie de démontrer qu'il existe des faiblesses sur les produits des concurrents (le fameux "téléphone sans clavier" de S.Ballmer en parlant de l'Iphone d'Apple en est l'exemple le plus évident)" Cela s'applique aussi aux gens. Mais pourtant comme l'a dit Arsène. G et FB sont aussi des fournisseurs de FUD en laissant tout le monde poster tout et n'importe quoi depuis toujours. Bref il ont transformé le web en un vaste m#@!dier. Maintenant va falloir qu'ils nettoient. Mais là on est dans les écuries d'Augias. Bon courage...
Signaler un abusÉvidemment on doit s'inquiéter de la diffusion de fausses informations et de l'interprétation de l'information à son compte. C'est ce qu'on appelle le FUD. Le FUD (Fear, Uncertainty and Doubt) est une technique généralement commerciale de mise en abîme du concurrent, dans l'objectif de se faire passer pour l'honnête homme de la situation. Cette technique essaie de démontrer qu'il existe des faiblesses sur les produits des concurrents (le fameux "téléphone sans clavier" de S.Ballmer en parlant de l'Iphone d'Apple en est l'exemple le plus évident) Cela
Signaler un abusCet engagement est évidemment absurde: au nom de quoi ferait-on confiance à Facebook ou à Google pour décider ce qui relève de l'information et ce qui relève de la désinformation ? Comment imaginer que Twitter puisse mettre au point un "outil" destiné à contrer les "trolls" (qui sont, rappelons-le, des messages uniquement destinés à générer une polémique) ?
Signaler un abusDans le premier cas il y a risque de censure "bien pensante" ou du moins "engagée" de la part de firmes multinationales qui sont loin d'être des parangons de vertus. Dans le second il y a surestimation des capacités d'analyse automatique: détecter un "troll" nécessite non seulement une analyse du message, mais aussi une connotation culturelle de celui-ci. Par exemple, s'exclamer "Windows c'est beaucoup mieux que Linux" peut être ou non un "troll", dépendant du contexte dans lequel cette assertion sommaire est émise...
On ferait beaucoup mieux de s'efforcer d'éduquer les élèves à comprendre ce qu'ils lisent, à faire l'effort de mettre en rapport le message avec son auteur (et l'intérêt qu'il a à le propager) et à apprendre à distinguer ce qui est dénoté, puis connoté par une assertion.
Evidemment, on peut comprendre que les multinationales n'aient pas intérêt à ce développement de l'esprit critique...