Publié le : 15 mars 2015
Source : arretsurinfo.ch
Préambule
Je vous livre tel quel, ci-dessous, l’article de NewScientist. Il fait la promotion du nouveau programme de Google qui doit, à terme, remplacer le Page rank, c’est-à-dire, l’algorithme de classement des résultats de recherche basé sur la popularité des pages web. Le projet est digne du ministère de la vérité du roman « 1984 » ; en effet Google préconise dorénavant de classer les pages et les sites webs en fonction de la « véracité » des informations qu’ils contiennent afin de lutter contre « la désinformation ». Si ce projet voit le jour, c’en est fini de la neutralité du web ; cela conduira à l’imposition d’une vérité unique fondée sur le consensus, c’est à dire sur la capacité à imposer une perception, un concept ou une représentation du monde au plus grand nombre, c’est à dire que la capacité d’influencer l’opinion publique sera déterminante (comme si elle ne l’était pas déjà suffisamment…). Concrètement, la puissance de feu médiatique des grands groupes de presse, des lobbies et des responsables politiques deviendra la mesure essentielle de la « vérité » selon Google. Evaluer la « vérité » renvoie en soi à une conception totalitaire et archaïque du savoir et de la connaissance : au niveau scientifique, l’évolution de la recherche et des connaissances conduit à remettre continuellement en cause les vérités jusque-là consensuelles et établies. Le savoir et la connaissance ne sont ni des données acquises ni des données figées. Songeons à la révolution copernicienne ou à la théorie de la relativité générale, ou plus récemment encore à la physique quantique. Ces révolutions scientifiques majeures se sont imposées contre la physique traditionnelle et ont conduit à la remise en cause massive des conceptions scientifiques antérieures. Les percées scientifiques de Copernic, Einstein ou Schrödinger auraient donc été classées par Google comme de la désinformation et du contenu « poubelle »…
Voir comment Google présente son projet de nouveau classement, dans l’article que nous vous présentons ici.
Guillaume Borel
_____
Google veut classer les pages web en se basant sur leur contenu et non pas sur leur popularité
La véracité d’une page web pourrait la faire remonter dans le classement de Google si le moteur de recherche met en place une mesure de la qualité basée sur les faits et non plus sur la popularité.
Internet est rempli d’ordures. Les sites web anti vaccination apparaissent en première page de Google et les articles aux contenus farfelus se répandent comme des feux de forêt. Google a mis au point un correctif pour classer les sites web selon leur véracité. Le moteur de recherche utilisait jusqu’à présent une méthode de classement basée sur les liens entrant sur les pages web, comme valeur d’approximation de leur qualité, déterminant leur place dans les résultats de recherche. Les pages qui bénéficiaient ainsi de nombreux liens entrants étaient classées plus haut. Ce système a fait le succès du moteur de recherche mais le problème de cette méthode c’est que les sites Internet truffés de désinformation pouvaient atteindre le haut du classement lors d’une recherche si suffisamment de gens y faisaient référence.
Une équipe de recherche de Google est en train d’adapter ce modèle afin de mesurer la véracité d’une page plutôt que sa popularité sur Internet. Plutôt que de comptabiliser les liens entrants, le système, qui n’est pas encore opérationnel, comptabilisera le nombre de faits incorrects présents sur la page.
« Une source qui comprend peu de faits erronés est considérée comme fiable » avance l’équipe de Google. Le score qu’ils calculent pour chaque page est le score de confiance basé sur les connaissances.
Le programme fonctionne en se référant au Knowledge Vault, une vaste base de données de faits que Google a compilée sur Internet. Des faits auxquels le web adhère de manière unanime et qui sont considérés comme une approximation raisonnable de la vérité. Les pages web qui contiennent des informations contradictoires sont ainsi rétrogradées dans le bas du classement.
Il existe déjà de nombreuses applications destinées à aider les internautes à évaluer la vérité. Lazy Truth est une extension de navigateur qui aide les boîtes de réception à éliminer les fake ou les hoax parmi les emails. Emergent, un projet du Centre Tow pour le digital-journalisme de l’université de Columbia, recense les rumeurs provenant des sites poubelles et les vérifie par le référencement croisé avec d’autres sources.
Le développeur de Lazy Truth, Matt Stempeck, qui est maintenant directeur du département des médias civiques chez Microsoft, souhaite développer des programmes pour exporter le savoir basé sur des services de fact-checking, comme Snopes, PolitiFact, et FactCheck.org, afin que tout le monde puisse y accéder facilement. Il affirme que des outils comme LazyTrust sont extrêmement utiles, mais que lutter contre les croyances erronées qui sous-tendent la désinformation est plus compliqué. « Comment corriger les conceptions erronées des gens ? Les gens adoptent à ce sujet des positions très défensives. Alors que s’ils cherchent une réponse sur Google, ils seront beaucoup plus réceptifs. »
Hal Hodson
Article original : newscientist.com
Traduction et commentaire : Guillaume Borel