Soutenez

Wikipédia dispose de mécanismes pour éviter les faussetés? Vrai

Photo: iStock
Kathleen Couillard – Le Détecteur de rumeurs - Agence Science-Presse

Fondée en 2001, l’encyclopédie en ligne Wikipédia se fie à sa communauté d’utilisateurs pour développer son contenu ce qui, même après deux décennies, continue d’agacer des enseignants et des experts qui mettent en doute sa fiabilité. Le Détecteur de rumeurs a voulu savoir ce qu’il en était des mécanismes pour garantir la qualité de ses articles. 

L’origine des critiques 

L’encyclopédie en ligne est basée sur un modèle inhabituel de création du savoir : Wikipédia privilégie la recherche de consensus au sein de la communauté des collaborateurs, plutôt que l’expertise individuelle. Le pari qu’ont fait ses fondateurs est donc que la contribution d’un grand nombre de collaborateurs permet de créer du contenu de haute qualité, tout en minimisant les intérêts personnels. 

Selon la page consacrée à l’administration du site, la gouvernance de Wikipédia est assurée par la communauté des usagers et non par la Fondation Wikimédia qui, elle, est responsable du financement. Même le texte des politiques et lignes directrices est le résultat d’une écriture collective. 

C’est cette absence de règles formelles et le manque de clarté des standards de qualité, qui suscitent des critiques à l’égard de Wikipédia, ont constaté dès les années 2000 les études consacrées à cette encyclopédie. Le chercheur en gestion des affaires Chitu Okoli, de l’Université Concordia, en avait publié une synthèse en 2009. Il y constatait que plusieurs critiques présumaient que cette façon de fonctionner favorisait les publications de moindre qualité. 

Quatre des mécanismes wikipédiens pour limiter les erreurs 

Cependant, il existe bel et bien des règles. En 2020, deux chercheurs américains qui se sont intéressés au mode de fonctionnement de Wikipédia ont conclu que l’encyclopédie en ligne avait mis en place des pratiques et des politiques qui fonctionnaient suffisamment bien pour que, dans leurs mots, Wikipédia soit « devenue un des rares endroits sur Internet aptes à combattre l’information problématique ». En voici quatre exemples. 

1) Certaines actions des éditeurs sont limitées 

Le principe de base de la technologie wiki est que n’importe quel utilisateur de Wikipédia peut en éditer le contenu. Les bénévoles qui rédigent et éditent les pages sont appelés des éditeurs. Toutefois, les nouveaux éditeurs, c’est-à-dire ceux qui ont un compte actif depuis moins de 4 jours ou qui ont réalisé moins de 10 éditions, sont limités dans les actions qu’ils peuvent poser. Par exemple, ils ne peuvent pas créer de nouvelles pages ou éditer les pages désignées comme « sujets sensibles ». Ce processus a pour but de réduire le « vandalisme » par des éditeurs mal intentionnés, de même que les erreurs causées par l’inexpérience. 

2) Souci de neutralité 

Deux des cinq principes fondateurs ont aussi pour but d’éviter les dérapages. D’une part, Wikipédia « est une encyclopédie », ce qui signifie qu’aucune « recherche originale » n’est permise et que ce n’est pas un espace d’opinions : les articles doivent viser « une exactitude aussi poussée que possible ». Dans cet esprit, les articles doivent être écrits avec un souci de neutralité, en citant « des sources faisant autorité sur le sujet ». 

3) Des protocoles pour régler les désaccords 

Lors d’un conflit entre deux éditeurs, Wikipédia encourage les discussions pour arriver à un consensus. Il est aussi possible de demander une troisième opinion, d’utiliser l’espace de médiation, de discuter avec la communauté sur l’un des nombreux tableaux d’affichage, de demander des commentaires et, en dernier recours, de faire appel à un comité d’arbitrage. Les membres du comité d’arbitrage pourraient alors imposer des pénalités si la conduite d’un utilisateur était jugée fautive. Par exemple, ils pourraient interdire à cet utilisateur d’éditer une page en particulier, ou plusieurs qui abordent un même sujet. 

4) Des mécanismes de contrôle 

Selon les politiques d’administration du site, certains éditeurs de plus haut niveau ont pour rôle d’assurer le respect des principes et lignes directrices. Ainsi, les « stewards » ont un accès complet à tous les éléments du site et peuvent modifier les droits d’accès de n’importe quel usager. Ils peuvent intervenir en cas de vandalisme. 

Par ailleurs, les « administrateurs » sont des éditeurs qui peuvent effacer certaines pages ou en « protéger » d’autres. Une page « protégée » signifie que les possibilités d’édition sont limitées. Cela permet d’éviter le vandalisme ou les « guerres d’édition » (lorsque deux clans s’affrontent avec des opinions contradictoires). Les administrateurs peuvent également bloquer un éditeur : il ne pourrait alors plus éditer le contenu de Wikipédia. 

Enfin, Wikipédia utilise des logiciels robots, appelés « bots », qui analysent les contributions des éditeurs et avertissent les administrateurs de Wikipédia de trolls potentiels ou de vandales. Certains de ces bots seraient d’ailleurs très efficaces pour effacer les fausses informations en retournant une page à sa version précédente lorsqu’une édition semble suspecte. 

La difficulté à mesurer la fiabilité 

Malgré ces mesures, l’encyclopédie n’est pas à l’abri des erreurs. L’une des plus connues est celle concernant le journaliste américain John Seigenthaler. En 2005, sa page Wikipédia a allégué qu’il avait été impliqué dans les assassinats de John et Robert Kennedy. Il a fallu quatre mois avant que cette information soit corrigée. Plusieurs experts croient cependant que les anecdotes de ce genre sont l’exception plutôt que la règle. 

Ainsi, en 2005, la revue Nature a publié une étude comparant 42 articles de Wikipédia à autant d’articles sur les mêmes sujets de l’Encyclopédie Britannica. L’équipe de Nature était arrivée à la conclusion que le nombre d’erreurs était similaire dans les deux encyclopédies : 4 imprécisions par article en moyenne pour Wikipédia, contre 3 pour l’encyclopédie « classique ». L’Encyclopédie Britannica avait vite réagi en déclarant que l’étude était dénuée de mérite. Nature avait rejeté ces critiques. 

Depuis, d’autres études ont tenté d’évaluer l’exactitude de Wikipédia, soit en la comparant à d’autres sources, soit en faisant appel à des experts d’un domaine en particulier. Par exemple, en 2006, un historien américain a comparé 25 biographies sur Wikipédia, sur Encarta (l’encyclopédie en ligne de Microsoft) et dans l’American National Biography Online, de l’Université Oxford. Il concluait que cette dernière offrait les textes les plus détaillés, mais qu’au final, l’une comme l’autre ne présentaient pratiquement aucune erreur factuelle. 

En 2011, un politologue américain a analysé les articles consacrés aux principaux candidats aux 155 élections pour un poste de gouverneur aux États-Unis entre 1998 et 2008. Il n’a trouvé « aucune erreur ». 

Selon des scientifiques de l’Alberta qui se sont intéressés en 2014 à la qualité des articles de Wikipédia dans les domaines de la santé, de la nutrition et de la médecine, l’information qui s’y trouve est en général de bonne qualité, mais des erreurs significatives et des omissions seraient assez courantes. 

Des chercheurs de l’Arabie Saoudite qui, en 2015, ont évalué 47 articles portant sur les maladies cardiovasculaires, y ont relevé plusieurs inexactitudes, principalement des omissions. 

Une étude réalisée par des chirurgiens orthopédiques en 2019 concluait que les informations anatomiques sur Wikipédia sont appropriées, mais pas équivalentes à celles des manuels d’anatomie. 

Wikipédia cite quelques-unes de ces études sur une page « Reliability of Wikipedia ». La Fondation Wikimédia en a financé une en 2012, comparant les contenus en trois langues avec ceux d’encyclopédies en ligne. 

Dans un texte d’opinion publié en 2019, Darius Jemielniak, membre du conseil d’administration de la Fondation Wikimédia, alléguait que les erreurs que l’on peut retrouver sur Wikipédia sont différentes de celles qui se trouvent dans d’autres publications. Par exemple, le contenu d’un article peut être remplacé par des insultes s’il s’agit d’une personnalité connue. Ces actes de vandalisme sont toutefois rares et faciles à identifier. 

Le chercheur canadien Chitu Okoli, qui a réalisé en 2009 une revue des études jusqu’alors menées sur Wikipédia, y jugeait qu’on ne devrait pas comparer Wikipédia à des publications d’experts, mais plutôt à d’autres encyclopédies. De plus, l’exactitude de Wikipédia semble varier selon le domaine. Des pharmaciens allemands écrivaient d’ailleurs en 2014 que Wikipédia est une source précise d’information sur les médicaments pour les étudiants du milieu de la santé. 

Wikipédia et le manque de confiance 

Le débat sur l’utilisation de Wikipédia comme ressource académique est toujours en cours, soulignaient en octobre 2022 des chercheurs des Pays-Bas. Des auteurs américains qui, en 2020, se sont intéressés aux politiques de Wikipédia pour combattre la désinformation, racontent pour leur part que plusieurs étudiants se font dire d’éviter Wikipédia. 

Une chose que déplore Darius Jemielniak, de la Fondation Wikimédia. Selon lui, les professeurs sous-estiment la capacité des collaborateurs qui ne sont pas des experts à propager le savoir. Il croit que Wikipédia remet en question la hiérarchie des institutions académiques, ce qui pourrait être confrontant pour certains professeurs. 

Cela dit, Wikipédia elle-même appelle à la prudence. 

L’encyclopédie souligne que son contenu est généré par les usagers et que les articles ne sont donc pas à l’abri d’erreurs. La qualité d’un article peut aussi être influencée par les biais, les intérêts, l’éducation et le passé de l’éditeur qui l’a rédigé. 

Wikipédia ne recommande donc pas d’utiliser un de ses articles comme source pour un autre article. Elle suggère plutôt de citer la source originale mentionnée dans l’article Wikipédia. 

Les chercheurs de l’Alberta cités plus haut proposent eux aussi d’utiliser Wikipédia comme un point de départ pour une recherche, ou comme source complémentaire. C’est d’ailleurs ce que font les journalistes, avait noté une étude de l’Université Stanford en 2018, en comparant leurs méthodes pour évaluer la fiabilité d’un site avec celles d’historiens et d’étudiants. Les chercheurs avaient alors remarqué que les journalistes sortaient d’un site « douteux » pour aller voir ce que l’on en disait sur Wikipédia, et se rendaient immédiatement dans les notes de bas de page de la notice Wikipédia pour asseoir leur recherche. 

Lien vers l’article original  
https://www.sciencepresse.qc.ca/actualite/detecteur-rumeurs/2023/02/23/wikipedia-dispose-mecanismes-pour-eviter-faussetes-vrai
Cet article fait partie de la rubrique du Détecteur de rumeurs, cliquez ici pour les autres textes. 

Chaque semaine, une sélection des nouvelles de votre arrondissement.

Nos infolettres vous suivent partout.

Articles récents du même sujet

Mon
Métro

Toute l'actualité locale au même endroit.

En vous inscrivant à Mon Métro, vous manifestez votre engagement envers la presse locale. + Profitez d’une expérience numérique personnalisée en fonction de vos champs d’intérêt et du quartier où vous résidez. + Sélectionnez vos articles favoris pour une lecture en différé.