Paramètres d'accessibilité

taille du texte

Options de couleurs

monochrome couleurs discrètes sombre

Outils de lecture

isolement règle

Articles

Six techniques pour vérifier l’authenticité d’un document

English

Il est tout à fait possible de démontrer qu’une image a été manipulée, à condition de connaître les bons outils. GIJN a élaboré un guide méthodologique pour vous expliquer étape par étape comment vérifier la véracité d’une information dans six cas de figure différents :

1. Manipulation d’images – Facile à repérer, en utilisant des outils comme la recherche d’image inversée sur Google. 2. Astuces vidéo – De l’importance d’examiner attentivement la vidéo et de rechercher l’originale. 3. Faits trompeurs – Surveillez les titres trompeurs, les opinions présentées comme des faits, les distorsions, les faits inventés et les détails négligés. 4. Pseudo-experts, experts imaginaires et experts dont la parole est déformée – Comment vérifier leurs qualifications et leurs déclarations. 5. Usage des médias – Surveillez les fausses déclarations qui se réfèrent à des médias grand public. 6. Manipulation des données – Examinez la méthodologie, les questions, les clients et plus encore.

1. Manipulation d’images

La manipulation de photos est le moyen le plus simple de falsifier l’actualité, mais c’est aussi la plus facile à mettre à jour.

Il y a deux techniques particulièrement courantes de manipulation d’images. La première consiste à éditer des photos dans des programmes spécialisés, comme Adobe Photoshop et la seconde à présenter de vraies photos comme ayant été prises à un autre moment ou un autre endroit. Dans les deux cas, des outils peuvent vous permettre de séparer le vrai du faux.

Vous devriez être en mesure d’établir quand et où une photo a été prise et si elle a été modifiée dans un logiciel de traitement photo.

1.1 Retouche photo

Voici un exemple simple d’une fausse photo obtenue en modifiant l’originale dans Adobe Photoshop.

 

L’image ci-dessus est une capture d’écran de la première page de groupes pro-russes sur le réseau social Vkontakte, l’équivalent russe de Facebook. Largement diffusée en 2015, elle montre un nouveau-né avec une croix gammée taillée sur le bras. La photo est accompagnée d’une légende : « Quel choc ! Le personnel de l’une des maternités de Dnipropetrovsk a appris qu’une mère biologique était une réfugiée du Donbass et la femme d’un milicien décédé. Ils ont décidé de tailler une croix gammée sur le bras du bébé. Trois mois plus tard, la cicatrice est encore visible. »

Mais cette photo est truquée. L’original est facile à retrouver sur internet. On découvre alors que le bébé ne porte aucune trace de blessure.

La façon la plus simple de vérifier une photo est d’utiliser la recherche inversée sur Google Images. Ce service propose de nombreuses fonctionnalités utiles, telles que la recherche d’images similaires et de la même image dans différents formats. Saisissez l’image avec votre souris puis faites-la glisser et déposez-la dans la barre de recherche de la page Google Images, ou copiez-collez tout simplement l’adresse URL de l’image. Dans le menu “ Tools ”, vous pouvez choisir les options “ Visually similar ” ou “ More sizes.”

 

L’utilisation de l’option “ Visually similar ” nous mène à un article de 2008. Cet article ne contient pas forcément la photo originale mais il démontre en tout cas que la photo n’a pas pu être prise en 2015, et qu’aucune croix gammée n’y figure.

 

Examinons maintenant un trucage plus sophistiqué. La photo truquée en question représente un soldat ukrainien embrassant un drapeau américain. La photo a circulé avant le jour du drapeau national ukrainien en 2015 et est apparue pour la première fois sur un site web séparatiste avec un article titré Le jour de l’esclave.

 

La manipulation de l’image peut être démontrée en plusieurs étapes.

Tout d’abord, supprimez toute information ajoutée à la photo – légendes, titres, cadre, etc. – car cela peut influencer les résultats de la recherche. Dans ce cas, vous pouvez enlever le mot « Demotivators », dans le coin inférieur droit de l’image, à l’aide de l’outil Jetscreenshot (version Mac), qui est disponible gratuitement.

Dans un deuxième temps, essayez de retourner l’image à l’aide d’un outil d’effet miroir tel que LunaPic, puis sauvegardez le résultat.

 

Vérifiez ensuite cette image sur Google Images ou un autre outil de recherche d’image inversée. Vous saurez alors si l’image est bien l’originale, ou si elle a été modifiée. Vous pourrez aussi découvrir date, le lieu et le contexte réels de la publication de la photo.

 

En réalité, la photo a été prise en 2010 au Tadjikistan et le soldat embrassant le drapeau est un douanier tadjik. Le drapeau ukrainien cousu sur le manche a été ajouté ultérieurement, à l’aide d’un logiciel de retouche photo, et la photo a été retournée en utilisant un effet miroir.

 

Une recherche sur Google n’est pas toujours suffisante pour retrouver la source d’une image. Essayez alors TinEye, un autre outil de recherche inversée.

La principale différence entre TinEye et Google est que TinEye retrouve non seulement les images identiques mais également celles qui ont été modifiées. Cela permet de retrouver des versions de la photo qui sont cadrées autrement. Les sites sur lesquels les photos sont publiées peuvent également fournir des informations supplémentaires sur le contenu de la photo.

 

La photo ci-dessus a été retweetée et likée des dizaines de milliers de fois sur Twitter. On y voit un Vladimir Poutine très sérieux, entouré de chefs d’Etats qui semblent tous suspendus à ses lèvres. Elle est fausse.

Vous pouvez retrouver l’originale en utilisant TinEye. Entrez l’adresse de l’image dans la barre de recherche ou faites glisser l’image depuis votre disque dur. L’option de recherche « L’image la plus grande » peut permettre de retrouver l’originale, puisque chaque modification apportée réduit la taille ainsi que la qualité de la photo.

Nous pouvons voir que la photo provient d’un site turc.

 

Vous pouvez aussi utiliser d’autres options dans la barre d’outils –  » Best Match « ,  » Newest « ,  » Oldest  » et même  » Most Changed  » – pour trouver quelles modifications ont été apportées à l’image.

 

Vous pouvez également filtrer les résultats par site – par exemple, sur Twitter ou sur d’autres sites où l’image est apparue.

 

Une image créée pour se moquer de Donald Trump, en montrant un profil peu flatteur du président américain, est un autre exemple de trucage sophistiqué.

L’image a circulé sur les réseaux sociaux en octobre 2017, avec l’affirmation selon laquelle le président en était mécontent et ne voulait pas qu’elle soit partagée en ligne. En fait, l’image a d’abord été publiée sur Facebook le 14 Juillet 2017, par Vic Berger, un créateur de vidéos virales :

 

Vous pouvez en retrouver l’origine en utilisant un outil d’effet miroir puis TinEye :

 

Vic Berger l’a créée à partir d’une photo prise par le photographe de Getty Images, Matthew Cavanaugh, en 2011. Vic Berger a retourné la photo originale, agrandi la gorge de Donald Trump et foncé la couleur de sa peau.

Pour étudier la photo plus en détail, vous pouvez utiliser des programmes qui analysent si elle a été modifiée. FotoForensics est l’un des meilleurs.

Le 12 janvier 2015, le journal télévisé Vesti, sur Rossiya 1, a rapporté que le parti politique ukrainien Svoboda avait proposé l’impression d’un nouveau billet de 1 000 hryvnia représentant Adolf Hitler.

C’était faux. La personne à l’origine de cette fausse information a apparemment créé l’image du billet sur Photoshop puis l’a publié sur pikabu.ru, où elle l’a étiquetée « humour » et « blague ».

 

Le vrai billet montre l’écrivain ukrainien Panteleimon Kulish.

 

Une analyse détaillée sur FotoForensics montre que la photo avec Hitler a été modifiée. Une partie de l’image d’origine a été effacée, puis ont été ajoutés la photo d’Hitler et la valeur du billet.

 

FotoForensics est un site qui utilise « l’analyse du niveau d’erreur » (ELA, en anglais) pour détecter des morceaux d’image qui ont été ajoutés à l’originale. Après avoir traité une photo, le logiciel fait ressortir les parties modifiées.

Le logiciel fait également ressortir les données EXIF ​​(c’est-à-dire les métadonnées) de chaque photo. Tout fichier image contient en effet une série d’informations supplémentaires, encodées dans un fichier graphique.

Entre autres informations, ces métadonnées révèlent :

La date et l’heure à laquelle l’originale a été prise Les données de géolocalisation Le modèle de l’appareil photo et ses paramètres (temps d’exposition, valeur de l’ouverture, etc.) Des informations sur le droit d’auteur

Par exemple, les journalistes d’investigation de Bellingcat se sont servis des métadonnées pour vérifier les photos d’internautes concernant l’accident du vol 17 de la compagnie Malaysia Airlines (MH17). À 16h20, heure locale, le 17 juillet 2014, l’avion a été abattu en plein vol au-dessus de l’est de l’Ukraine, tuant les 298 passagers et membres d’équipage à bord. Presque exactement trois heures plus tard, la photo suivante est apparue sur Twitter :

 

Le tweet de @WowihaY explique qu’un témoin de la scène lui a envoyé cette photo montrant le nuage de vapeur causé par le lancement d’un missile depuis le sud-est de la ville de Torez, en territoire occupé dans l’est du pays. Les métadonnées de la photo ont montré qu’elle avait été prise à 16h25 (soit cinq minutes après que l’avion ait été abattue), selon l’horloge interne de l’appareil photo.

 

Cette méthode n’est pas pour autant sûre à 100 %. La plupart des métadonnées requises pour authentifier une image disparaissent lors du téléchargement sur internet.

 

Ces résultats n’incluent pas les métadonnées de la photo d’origine car il s’agit d’une capture d’écran. On relève le même problème lorsqu’une photo est publiée sur les réseaux sociaux.

Malgré tout, les métadonnées peuvent vous aider dans vos recherches.

1.2 La publication de vraies photos, mais prises à un autre moment ou à un autre endroit

La manipulation d’image peut servir à déformer des événements.

Une photo prise en Israël en 2014 a récemment été présentée comme ayant été prise dans l’est de l’Ukraine en 2015.

 

C’est Shimon Briman, le journaliste israélien et spécialiste de l’Ukraine, qui a découvert le pot aux roses.

N’importe quel outil de recherche inversée peut vous permettre de vérifier l’authenticité d’une photo, après avoir supprimé tous les éléments ajoutés, dont par exemple le titre. L’option TinEye « Le plus ancien » est très utile dans ce cas précis ; elle génère au moins deux résultats liés à Israël et datant de l’année précédente.

Cette méthode ne permet pas toujours d’identifier la source d’une photo. Mais un tel résultat sert d’indice pour poursuivre ses recherches.

 

Le cinquième résultat de la recherche est une photo d’un journal israélien daté du 27 juillet 2014, qui décrit en détail quand la photo a été prise, et dans quelles conditions. Une fille, Shira de Porto, l’a prise depuis son téléphone portable lors d’un tir de missile à Beer Sheva. Le père et un autre homme ont couvert le bébé de leurs corps.

 

Si une image suspecte apparaît sur les réseaux sociaux, vous pouvez utiliser les outils de recherche TinEye intégrés.

Par exemple, lors de la visite de l’ancien vice-président américain Joe Biden à Kiev, une photo de personnes agenouillées devant les bureaux des ministres ukrainiens est apparue sur les réseaux sociaux et des sites pro-russes. La légende expliquait qu’il s’agissait de résidents de Kiev « faisant appel à Biden pour les sauver de Yatseniuk », se référant au Premier ministre ukrainien de l’époque. La photo est apparue pour la première fois le 6 décembre 2015.

À l’aide de TinEye, StopFake a constaté que la photo originale avait été publiée sur Twitter avec le hashtag #Euromaidan le 18 janvier 2015. Pour vous faire une idée du contexte, vous pouvez utiliser l’outil de recherche Twitter. Choisissez  » Search filters  »  puis  » Advanced search « .

 

Vous pouvez alors entrer n’importe quelle information – dans ce cas, le hashtag et la date du 18 janvier 2015.

 

Le premier résultat fait alors apparaître le tweet original avec la photo initiale. Elle a été prise dans la rue Hrushevsky de Kiev le 18 janvier 2015, quand des milliers de personnes s’étaient rassemblées pour rendre hommage aux premières victimes d’affrontements ayant eu lieu lors des manifestations « Euromaidan » de 2013.

 

TinEye et Google Images ne sont pas les seuls outils disponibles, il y a aussi Baidu (qui fonctionne particulièrement bien pour les contenus chinois), Yandex et des outils de recherche de métadonnées comme FotoForensics.

Si vous comptez utiliser ces outils fréquemment pour vérifier des photos, essayez ImgOps, qui contient les outils mentionnés ci-dessus et auquel vous pouvez ajouter les vôtres. Imageraider.com en est un autre, analogue à TinEye mais avec des fonctionnalités différentes : ce site vous permet entre autres d’analyser plusieurs images à la fois et d’exclure certains sites des résultats de vos recherches.

 

Un bref résumé

Prêtez attention aux images dont la résolution est la plus haute. La résolution diminue à chaque nouvelle modification, donc la photo dont la résolution est la plus haute est également celle qui aura été le moins retouchée. C’est un signe indirect qu’il peut s’agir de la photo originale. Prêtez attention à la date de parution. L’image dont la date est la plus ancienne sera la plus proche de l’original. Relisez les légendes des photos. Deux images identiques peuvent être accompagnées de descriptions différentes. Les photos truquées ne sont pas seulement recadrées ou modifiées, mais peuvent également être renversées par effet miroir. Vous pouvez effectuer des recherches sur un site ou réseau social en particulier.

2. Astuces vidéos

Les vidéos font tout aussi souvent l’objet de manipulations que les photos. Cependant, il est beaucoup plus difficile de révéler qu’une vidéo est truquée, et cela prend beaucoup plus de temps. Dans un premier temps, voyez si la vidéo contient des éléments troublants : un montage qui semble inexact, des proportions déformées ou des moments tout bonnement étranges.

Rentrez dans les détails : les ombres, les reflets et la netteté des différents éléments. Il est possible d’identifier le pays et la ville où une photo a été prise grâce aux plaques d’immatriculation des voitures, aux enseignes de magasin et aux noms des rues. S’il y a des bâtiments inhabituels sur la photo, retrouvez-les dans le mode Street View de Google Maps. Vous pouvez également consulter la météo à l’heure et sur le lieu en question en utilisant les archives des sites de prévisions météorologiques. Si la vidéo montre un soleil radieux, alors qu’il pleuvait toute la journée, on peut mettre en doute sa véracité.

Weather Underground est un site que j’affectionne tout particulièrement.

Les technologies suivantes sont utilisées le plus souvent pour créer de fausses nouvelles en format vidéo.

2.1 L’utilisation de vidéos anciennes pour illustrer des événements nouveaux

De nombreuses photos et vidéos ont été partagées sur les réseaux sociaux montrant des attaques aériennes américaines, françaises et britanniques contre trois cibles syriennes le 14 avril 2018. Par exemple, cette vidéo montre une attaque aérienne matinale contre le Centre de recherche Jamraya à Damas.

Si une vidéo est intégrée à un article d’actualité, il est possible d’accéder au tweet, à la vidéo YouTube ou à la publication Facebook d’où elle provient, et d’y lire les commentaires. Les internautes, en particulier sur Twitter et YouTube, sont très actifs et réactifs. On peut parfois y trouver des liens vers la source de la vidéo et suffisamment d’informations pour réfuter un faux.

En faisant cela, nous pouvons retrouver le lien vers la vidéo YouTube originale. L’emplacement était correct, mais la vidéo a été filmée en janvier 2013 lors d’une attaque similaire attribuée à Israël.

 

Vous pouvez également passer rapidement en revue le compte qui a publié la vidéo qui vous intéresse. Qu’apprend-on sur l’utilisateur ? À quels autres comptes sur les réseaux sociaux est-il lié ? Quel type d’informations partage-t-il ?

Pour trouver une vidéo originale, vous pouvez utiliser le YouTube DataViewer d’Amnesty International. Cet outil vous permet d’établir la date et l’heure exacte du téléchargement et de vérifier si la vidéo YouTube a déjà été publiée sur la plateforme.

Essayons de vérifier l’heure de téléchargement de la vidéo mentionnée ci-dessus. Le DataViewer a confirmé que le téléchargement a bien eu lieu en janvier 2013.

 

L’étape suivante de la vérification des vidéos est la même que pour la vérification des photos : faire une recherche d’image inversée.

Vous pouvez prendre manuellement des captures d’écran des moments clés de la vidéo et les placer dans un moteur de recherche comme Google Images ou TinEye. Vous pouvez également utiliser des outils spéciaux conçus pour simplifier cette démarche. Le Youtube DataViewer génère des vignettes utilisées par une vidéo sur YouTube. Vous pouvez effectuer une recherche d’image inversée sur ces vignettes en un seul clic.

En février 2018, les Observateurs de France 24 ont discrédité une vidéo qui prétendait montrer des escadrons d’avions de chasse turcs lors d’une mission de bombardement sur Afrin, en Syrie. Cette vidéo filmée depuis le cockpit d’un F16 a été publiée sur plusieurs comptes YouTube différents le 21 janvier 2018.

Ils l’ont vérifié avec l’aide de YouTube DataViewer.

 

Dans l’originale, on n’entend pas de voix turque, celle-ci a été ajouté plus tard. En réalité, cette vidéo a été réalisée à l’occasion d’une exposition aéronautique à Amsterdam.

2.2 Placer une vidéo – ou un morceau de celle-ci – dans un autre contexte

Il faut parfois en apprendre davantage sur une vidéo pour pouvoir établir s’il s’agit d’un faux.

Par exemple celle-ci, publiée sur YouTube le 22 août 2015, a été largement diffusée dans huit pays. Elle prétend montrer des migrants musulmans à la frontière entre la Grèce et la Macédoine refusant l’aide alimentaire de la Croix-Rouge parce qu’elle n’était pas halal ou parce que l’emballage était marqué d’une croix.

Pour en savoir plus, vous pouvez utiliser  InVid, un outil puissant de recherche inversée. Il peut vous aider à vérifier les vidéos sur les réseaux sociaux, tels que Twitter, Facebook, YouTube, Instagram, Vimeo, Dailymotion, LiveLeak et Dropbox. Téléchargez le plugin InVid, copiez le lien vidéo, collez-le dans la fenêtre « Keyframes » d’InVid et cliquez sur « Submit ».

 

Cliquez sur les vignettes une par une pour effectuer une recherche d’image inversée, puis étudiez les résultats.

 

En réalité, les migrants refusaient la nourriture qu’on leur offrait pour protester contre la fermeture de la frontière et les mauvaises conditions de leur attente. Des journalistes italiens ont couvert cette actualité pour Il Post après avoir interrogé des travailleurs humanitaires sur place. Le journaliste qui a filmé cette vidéo l’a confirmé. La vidéo a d’abord été publiée sur son site avec la légende : « Les réfugiés refusent de se nourrir après avoir passé la nuit sous la pluie sans pouvoir traverser la frontière. »

 

Un autre exemple de ce genre de fausse information est un article de Gloria.tv sur la chancelière allemande Angela Merkel. Il s’agit d’un clip vidéo de sept secondes dans lequel la chancelière ne prononce qu’une seule phrase. Le titre de la vidéo : « Angela Merkel : les Allemands doivent accepter la violence des étrangers. »

 

En réalité, la phrase a été sortie de son contexte et le titre donne le sens inverse de sa déclaration, selon une analyse de BuzzFeed News. Voici sa déclaration complète :

Il s’agit ici d’assurer la sécurité sur le terrain et d’éliminer en même temps les causes de la violence dans la société. Cela s’applique à tous les membres de notre société, mais nous devons admettre que le nombre de délits est particulièrement élevé chez les jeunes immigrants. Par conséquent, le thème de l’intégration est lié à la question de la prévention de la violence partout dans notre société.

La vidéo s’est avérée faire partie d’un complot en 2011, selon le site allemand de vérification des faits Mimikama.

La meilleure façon de trouver la source de ces vidéos est d’utiliser des moteurs de recherche tels que Google.

2.3 Réaliser une vidéo intégralement fausse

La création de vidéos totalement fausses nécessite beaucoup de temps et d’argent. La propagande russe emploie fréquemment cette méthode.

Un exemple de cela est la prétendue « preuve » que des militants de l’État islamique ont servi au sein du régiment d’opérations spéciales ukrainien « Azov ». Cela a été présenté comme la découverte d’un groupe de hackers pro-russe appelé « CyberBercut ».

Les pirates informatiques de CyberBercut ont affirmé avoir accédé au smartphone d’un combattant d’ « Azov » et y avoir trouvé ces informations. Ils n’ont mentionné ni le lieu où ces images auraient été tournées, ni les moyens de piratage mis en oeuvre. La BBC a pu retrouver le lieu du tournage en utilisant le service géographique de Wikimapia.

Vous pouvez également utiliser d’autres services de cartographie, comme Google Maps, pour comparer le lieu supposé d’une vidéo et le lieu où les images ont réellement été tournées. Le service Google Street View peut également vous être utile. En l’occurrence, la vidéo avait été tournée au Centre artistique d’Isolyatsia dans la zone occupée de l’est de l’Ukraine.

Parfois, ces faux sont grossiers, donc faciles à discréditer. Il suffit d’être attentif. Par exemple, des médias russes ont annoncé que des combattants du parti ukrainien « Secteur droit » dispensaient des « cours de russophobie » dans les écoles de la ville de Kramatorsk, dans la région de Donetsk, dans l’est de l’Ukraine.

La vidéo a circulé sur les réseaux sociaux et sur YouTube, puis a été diffusée par les principaux médias russes. L’un des écoliers aurait filmé ces leçons sur son téléphone. On y voit un homme en uniforme militaire britannique avec une arme à la main obligeant des enfants à lire à haute voix l’article « Qu’est-ce que la russophobie ? » Ces leçons, dit-il, auront lieu dans tous les établissements d’enseignement de territoires libérés de la présence russe.

Les utilisateurs des réseaux sociaux ont remarqué que les écoliers paraissent plus âgés que ce qui était indiqué. Le personnage principal est vêtu d’une veste militaire de style Condor avec un bandeau sur lequel on peut lire « Thor mit uns ». Une telle enseigne, ainsi que les vêtements sur la vidéo, peuvent être achetés dans n’importe quelle boutique en ligne.

En réalité, cette vidéo était une provocation, réalisée par un militant de Kramatorsk pour vérifier si les médias russes la publieraient sans en vérifier l’authenticité. L’auteur de la vidéo, Anton Kistol, a fourni à StopFake des versions préliminaires de la vidéo, ainsi que des photos du tournage.

3. Faits trompeurs

3.1 Publier une véritable nouvelle sous un faux titre

Beaucoup de gens partagent des articles sur les réseaux sociaux après en avoir lu seulement le titre. Mettre un titre trompeur sur de vraies informations est l’une des techniques de fausses nouvelles les plus répandues.

Sortir des citations de leur contexte est une autre astuce courante.

Par exemple, en décembre 2016, des médias russes ont déclaré que le ministère ukrainien des Affaires étrangères avait accusé l’Union européenne de trahison. L’agence de presse officielle russe RIA Novosti, ainsi que Vesti et Ukraina.ru, ont publié des articles affirmant que l’Ukraine soupçonnait l’UE de machinations, voire de trahison.

Ils ont cité une interview d’Olena Zerkal, vice-ministre des Affaires étrangères de l’Ukraine pour l’intégration européenne, dans le Financial Times :

Cela met à l’épreuve la crédibilité de l’Union européenne… Dire cela n’est pas très diplomate. Cela ressemble à une sorte de trahison… surtout si l’on tient compte du prix que nous avons payé pour nos aspirations européennes. Aucun des pays membres de l’Union européenne n’a payé un tel prix.

Bien que les déplacements sans visa pour les Ukrainiens aient en principe été convenus avec l’UE, la mise en oeuvre n’a pas encore officiellement eu lieu. Olena Zerkal exprimait sa frustration face à l’attente imposée, alors que l’Ukraine avait rempli toutes les conditions. Elle n’accusait pas exactement l’UE de trahison.

Un autre exemple est tiré du blog Free Speech Time. Y a paru le 6 mai 2018 un article intitulé : « Regardez : le maire musulman de Londres encourage les musulmans à l’émeute lors de la visite de Trump au Royaume-Uni. » L’article commence ainsi :

Le maire musulman de Londres a incité à la haine islamique contre le président Trump. Chaque fois qu’il l’a pu, il s’en est pris au président américain pour avoir osé critiquer l’islam et pour avoir interdit aux terroristes d’entrer en Amérique. Il prévient maintenant Trump de ne pas venir au Royaume-Uni parce que les musulmans « épris de paix », qui représentent la « religion de la paix », devront manifester violemment lors de sa visite au Royaume-Uni.

Sadiq Khan lui-même a incité à la haine contre le président américain parmi les musulmans britanniques. Honte au maire musulman de Londres.

Comme preuve de ce qu’il avance, l’article inclut cette vidéo. L’article n’apporte pourtant aucun élément corroborant l’information contenue dans le titre. Un extrait d’interview vidéo contient seulement la déclaration suivante du maire Sadiq Khan : « Je pense qu’il y aura des manifestations ; je parle aux Londoniens quotidiennement et je pense qu’ils utiliseront les droits dont ils disposent pour exprimer leur liberté d’expression. »

Lorsque le journaliste a demandé directement à Sadiq Khan s’il « approuvait » de telles manifestations, il a répondu : « L’essentiel est qu’elles soient de nature pacifique, qu’elles respectent la loi. » A aucun moment il n’emploie les mots « musulman », « musulmans » ou « islam », comme le souligne Maarten Schenk dans Lead Stories.

Si vous devez vérifier une citation, vous pouvez en retrouver la source en effectuant une recherche avancée sur Google. Vous pouvez y définir les paramètres horaires et le site qui vous intéresse. L’information est parfois supprimée de la source première, mais se propage par d’autres biais. Vous pouvez localiser le matériel supprimé à l’aide d’une recherche sur Google Cache ou en consultant les archives de la source à une date donnée.

3.2 Présenter une opinion comme un fait

En lisant un article, posez-vous la question suivante : s’agit-il d’informations ou d’une opinion personnelle ?

Certains médias russes ont annoncé que la Turquie serait expulsée de l’Otan en novembre 2015. Ukraina.ru a ainsi rapporté : « La Turquie ne devrait pas être membre de l’Otan et devrait être expulsée de l’Alliance. C’est en tout cas ce qu’a annoncé le major général à la retraite de l’armée américaine et analyste militaire principal pour Fox News, Paul Vallely. »

En fait, comme l’a expliqué Stopfake.org, un officier militaire à la retraite ne peut pas parler au nom de l’Otan ou de ses membres. Paul Vallely était très critique vis-à-vis de la politique américaine et du président américain de l’époque, Barack Obama. Celui-ci a soutenu publiquement la Turquie.

3.3 Déformer un fait

Un reportage sur la chaîne d’information Russia Today a relayé l’information, citations du rabbin Mihail Kapusti à l’appui, selon laquelle des personnes juives avaient fui Kiev en raison de l’antisémitisme du nouveau gouvernement ukrainien.

Mais une recherche toute simple a montré qu’il n’était pas le rabbin d’une synagogue de Kiev, mais plutôt celui d’une synagogue de Crimée. Ayant appelé à la défense de l’Ukraine et de la Crimée face à la Russie, il fuyait la Crimée à cause du nouveau gouvernement russe qui s’y était installé, comme l’a démontré Stopfake.org.

3.4 Présenter des informations entièrement inventées comme des faits

Des recherches toutes simples peuvent révéler qu’une information est erronée.

Un exemple frappant en Ukraine concerne un garçon qui aurait été crucifié. Stopfake.org ne trouvait aucune preuve de ce qu’avançait une femme en 2014 sur Channel One, la chaîne de télévision officielle du Kremlin. Elle s’est avérée être l’épouse d’un militant pro-russe.

De nombreux reportages sur les soi-disant camps d’entraînement de l’Etat islamique en Ukraine ont paru dans des médias espagnols en 2017, mais des recherches avancées sur Google n’ont révélé aucune preuve de cela, a rapporté Stopfake.org.

Les auteurs de fausses nouvelles tentent également de manipuler des citations, voire de les fabriquer.

L’ancien vice-président de Facebook, Jeff Rothschild, aurait appelé à « une troisième guerre mondiale, afin d’exterminer 90 % de la population mondiale ». Mais cette citation, qui est apparue pour la première fois sur le blog d’Anarchadia, n’a jamais été prononcée par Jeff Rotschild, selon le site de fact checking Snopes.com.

3.5 Négliger des détails importants pour déformer le contexte d’une information

En mars 2017, Buzzfeed a publié un article affirmant que le Premier ministre ukrainien Volodymyr Groysman avait décidé d’aider la Turquie en accueillant des réfugiés de Syrie.

Citant un rapport de l’agence de presse étatique Ukrinform, l’auteur du papier dans Buzzfeed, Blake Adams, a écrit que l’Ukraine comptait établir trois centres d’accueil de réfugiés, attribuant cette information au directeur de l’Institut de recherche du Moyen-Orient, Ihor Semyvolos. Mais Ihor Semyvolos n’a rien dit au sujet des réfugiés ou des centres de réfugiés, comme il l’a ensuite expliqué sur Facebook.

Buzzfeed a également inclus un lien vers un message publié sur Facebook par Yuriy Koval, qui se réfère au blog Vse Novosti et à un certain Mykola Dobryniuk. Ces deux sources affirment que l’Ukraine a accepté d’accueillir des réfugiés syriens en provenance de Turquie. Curieusement, ni Yuriy Koval ni Mykola Dobryniuk n’a d’autres publications sur internet.

Suite à cette révélation de StopFake, Buzzfeed a retiré le papier de son site.

4. Pseudo-experts, experts imaginaires et experts dont la parole est déformée

Une autre méthode de falsification consiste à utiliser de faux experts ou à dénaturer la parole de vrais experts.

4.1. Pseudo-experts et think tanks

Les vrais experts sont souvent bien connus localement et dans leur milieu professionnel, et soignent leur réputation. Les pseudo-experts, en revanche, n’apparaissent souvent qu’une seule fois avant de disparaître. Pour vérifier l’authenticité d’un expert, il convient de consulter sa biographie, ses comptes sur les réseaux sociaux, son site web, ses articles, ses citations dans les médias et les commentaires de ses collègues sur son travail.

Le 30 septembre 2014, le journal Vechernyaya Moskva a publié une  interview du politologue letton Einars Graudins, présenté comme un « expert de l’OSCE [l’Organisation pour la sécurité et la coopération en Europe] ». Cette personne n’avait pourtant aucun lien avec l’OSCE, ce que la mission de l’organisation en Ukraine a confirmé sur son compte Twitter officiel.

Il faut dans un premier temps rechercher les experts sur le site de l’organisation à laquelle ils sont censés être rattachés. Si leur nom n’y apparaît pas, contactez l’organisation. Le plus simple est de leur écrire via Twitter ou Facebook. Les organisations réputées ont tout intérêt à arrêter la diffusion de fausses nouvelles les concernant ou concernant leurs experts.

Certains pseudo-experts apparaissent fréquemment dans les médias. En Russie, NTV a couvert la « réaction houleuse en Occident » à la déclaration de Vladimir Poutine du 3 mars 2018, selon laquelle les États-Unis n’étaient plus la première puissance militaire. C’était l’opinion d’un certain Daniel Patrick Welch, présenté comme un politologue américain.

Mais une recherche Google effectuée par The Insider a révélé que Daniel Patrick Welch se présente comme « un écrivain, un chanteur, un traducteur et un poète militant ». Il lui arrivait d’écrire des articles traitant de politique pour des médias en ligne peu connues, il y critiquait le militarisme et l’expansionnisme de la politique américaine. Daniel Patrick Welsh a sympathisé avec les militants de l’est de l’Ukraine et a qualifié les autorités ukrainiennes de « junte contrôlée depuis Washington ». En Russie, les plus grandes agences de presse et chaînes de télévision l’ont cité.

Des groupes de réflexion d’apparence crédible peuvent ne pas l’être.

 

Un membre expérimenté du Conseil de l’Atlantique, Brian Mefford, a décrédibilisé l’une de ces organisations, le Center for Global Strategic Monitoring. Ce centre a prétendu à tort sur son site internet que Brian Mefford y travaillait comme expert. Il a cherché des coordonnées en vain sur le site pour demander le retrait de son nom.

A première vue, le site du centre a l’apparence d’un site d’actualité et et d’opinion à la fois impressionnant et réfléchi, a expliqué Brian Mefford. En creusant un peu on voit pourtant très vite que l’organisation est bidon. Premièrement, le site publie des analyses et des tribunes déjà publiées par de véritables instituts de recherche, apparemment sans leur autorisation. Ensuite, ces articles de qualité sont mélangés avec des articles dits « d’actualité » provenant de médias contrôlés par la Russie. Le site publie même de faux articles attribués à d’éminents spécialistes de think tanks.

4.2. Des experts imaginaires

Il arrive que des médias inventent des experts de toute pièce afin de mettre en avant certaines opinions politiques ou d’encourager leur public à prendre certaines décisions.

Par exemple, « le spécialiste haut-placé de la Russie au sein du Pentagone, David Jewberg » avait une page Facebook à succès et s’est vu fréquemment cité dans les médias ukrainiens et russes en tant qu’expert de ces deux pays au sein du Pentagone. Plusieurs personnalités bien connues de l’opposition russe ont souvent cité David Jewberg en tant qu’analyste respecté, et l’ont présenté comme quelqu’un avec qui elles étaient en contact.

Bellingcat a mené l’enquête et découvert que David Jewberg n’était pas une vraie personne, et que ce personnage était lié à un groupe d’individus aux États-Unis proches du financier américain Dan K Rapoport. Plusieurs de ses amis et contacts professionnels ont participé à la supercherie. Des photos d’un ami de longue date de Dan Rapoport ont servi à donner un visage à David Jewberg ; d’autres amis ont écrit à son sujet comme s’il s’agissait d’une vraie personne.

Un autre exemple est Drew Cloud, qui a parfois été cité comme l’un des principaux « experts » sur la question des prêts étudiants aux Etats-Unis. On a depuis appris que cette personne n’existait pas. Elle a proposé ses articles sur les prêts étudiants à des médias et a déclaré être en mesure de réaliser des entretiens par e-mail. Drew Cloud a souvent partagé ses conseils financiers sur des sites spécialisés et lors d’interviews. Il n’a jamais dit où il avait fait ses études mais a déclaré avoir contracté des prêts étudiants. Quand on lui demandait conseil sur les prêts étudiants, il recommandait souvent de les refinancer.

Il aura fallu un papier dans le Chronicle of Higher Education pour révéler que Drew Cloud était un personnage fictif créé par The Student Loan Report, un site géré par une société de refinancement des prêts étudiants.

4.3. Déformer les déclarations des experts ou les fausser

Les manipulateurs déforment souvent la parole d’experts, en particulier en sortant des phrases de leur contexte.

En mai 2018, des tweets et articles de blog sur un passage à la télévision de l’éducatrice en sexualité Deanne Carson se sont multipliés sur les réseaux sociaux. Les internautes ont critiqué avec virulence les conseils qu’elle y aurait prodigué. Elle aurait en effet déclaré que les parents devraient demander l’accord de leur bébé avant de changer sa couche.

Ce n’était pourtant pas exactement ce qu’elle avait dit. Elle avait déclaré que les parents pouvaient demander l’accord des enfants avant de changer leurs couches, pour leur apprendre que « leur réponse a de la valeur », tout en admettant qu’il n’était pas vraiment possible pour les bébés de consentir à un changement de couche, selon un examen de sa déclaration réalisé par Snopes.

Les avis de vrais experts sont parfois complètement faussés. Pour les vérifier, rendez-vous sur le site du groupe de réflexion ou de l’organisation auquel l’expert est affilié. Analysez ses recherches, ses déclarations et ses articles. Sont-ils en adéquation avec les propos qui lui sont attribués ?

L’article « Les victimes américaines du terrorisme demandent justice » sur le site CGS Monitor (supprimé depuis) est un bon exemple de cette pratique. L’article s’en prenait à l’alliance américano-saoudienne et était attribué à Bruce Riedel, le célèbre analyste du Moyen-Orient au sein du Brookings Institute. Mais quand on l’a interrogé sur ce sujet, Bruce Riedel a déclaré ne pas avoir écrit l’article.

L’article semblait ne pas avoir été rédigé par quelqu’un dont la langue maternelle est l’anglais, selon le Conseil de l’Atlantique. Le placement incorrect des noms communs et l’absence répété d’articles définis et indéfinis donnaient l’impression d’un article traduit du russe vers l’anglais.

CGS Monitor avait au préalable republié plusieurs articles qui avaient bel et bien été rédigés par Bruce Riedel, pour que la tribune faussement attribuée à l’analyste puisse passer inaperçue. Ce genre de trucage ne tromperait pas un expert mais peut tromper quelqu’un faisant des recherches en ligne ou qui édite un article sur Wikipedia, comme dans cet exemple.

4.4. Traduire les mots d’un expert de manière à en modifier le sens

Cette méthode est souvent utilisée lors de traductions de l’anglais vers d’autres langues. Contrez-la en trouvant l’article original et en le traduisant vous-même.

Les pays occidentaux, dont l’Allemagne, ont imposé des sanctions économiques contre la Russie après son annexion de la Crimée en mars 2014.

Mais la transcription par le Kremlin d’un discours du 26 octobre 2017 du président allemand Frank-Walter Steinmeier sur la Crimée a modifié son contenu, en remplaçant le mot « annexion » par le mot « réunification ».

Une « erreur de traduction » similaire s’est produite le 2 juin 2015, lorsque l’agence de presse russe RIA Novosti a publié un article faisant référence à un blog du Financial Times. Le papier de RIA Novosti a omis des critiques de la Russie, a traduit le contenu de manière déformée et a décrit l’annexion sous un jour favorable, comme l’a soulevé Stopfake.

5. Usage des médias

Notre tendance à faire confiance aux médias réputés et à prendre leurs informations pour argent comptant est mise à profit par des propagandistes et manipulateurs en tous genres.

5.1. Utilisation de messages provenant de médias marginaux ou de blogs

Des médias marginaux au nom pourtant crédible diffusent souvent des informations douteuses tout en affirmant qu’elles proviennent de médias réputés.

Plusieurs médias populaires russes, dont le journal économique Vzglyad, ont cité « les médias occidentaux » lors de reportages sur un différend concernant le rapatriement des corps de 13 Américains tués lors de combats en Ukraine.

Mais les « médias occidentaux » cités par Vzglyad étaient en réalité un journal en ligne peu crédible, The European Union Times, selon StopFake. Les liens hypertextes redirigeaient les lecteurs vers le site  WhatDoesItMean.com. L’auteur de l’article, Sorcha Faal, était un personnage inventé dans le seul but de répandre de fausses rumeurs.

Pour contrer ce type de manipulation, accédez aux sources de ladite information et évaluez leur crédibilité.

Un autre exemple : des médias russes ont cité ce qui s’est avéré être un article de blog anonyme, a rapporté Stopfake. Le 16 août 2015, le média russe RIA Novosti a publié un article sur le crash du vol 17 de Malaysia Airlines. La source était un portail allemand, Propagandaschau. Le portail a publié une tribune par un certain « Dok » et un article d’un ancien conseiller politique de l’ambassade du Canada en Russie, Patrick Armstrong, qui avaient été publiés sur le site pro-russe Russia Insider. RIA Novosti et RT ont présenté les réflexions de Dok comme celles d’un expert. Les médias russes n’ont pas mentionné l’article de Patrick Armstrong, qui contient des affirmations qui avaient déjà été réfutées.

5.2. Modifier les informations issues de médias réputés

Les informations rapportées par les médias réputés peuvent être déformées par les médias se spécialisant dans les « fausses nouvelles ».

Par exemple, une citation attribuée à la députée californienne Maxine Waters au sujet de la destitution du président Trump a été ajoutée numériquement à une image tirée d’une émission de CNN, ont écrit Snopes et Politifact.

En fait, la citation n’était pas la sienne et l’image provenait d’une interview qu’elle avait accordé sur un tout autre sujet.

5.3. Citer des articles imaginaires de médias réputés

Des sites russes et moldaves ont diffusé une fausse information apparue en décembre 2017, selon laquelle une mine d’or avait été découverte en Crimée. Le site d’actualité moldave GagauzYeri.md a rapporté le 10 février 2016 que des géologues russes avaient découvert la plus grande mine d’or au monde.

Bloomberg était censé être la source de cette information, mais le lien hypertexte ne redirigeait pas les lecteurs vers son site. On pouvait y voir un premier indice que l’information était erronée. Une recherche sur le site de Bloomberg, ainsi que sur Google, n’a pas permis de retrouver l’article, a découvert Stopfake.

Un autre exemple : un message sur WhatsApp vantant une fausse enquête d’opinion électorale en Inde a été rendu plus crédible par l’inclusion d’un lien vers la page d’accueil de la BBC, alors même que la BBC n’avait pas couvert l’enquête, selon une analyse de BOOM.

6. Manipulation des données

Les données d’enquêtes sociologiques et les indicateurs économiques peuvent être manipulés.

6.1 Manipulation méthodologique

Les enquêtes d’opinion peuvent reposer sur des méthodologies peu fiables.

Par exemple, fin mars 2018, les médias russes ont rapporté une recrudescence de l’antisémitisme en Ukraine, que les autorités ukrainiennes « cachent soigneusement ».

Le site russe Ukraine.ru a cité un rapport de 72 pages produit par le ministère israélien des Affaires de la diaspora montrant que les juifs ukrainiens avaient subi plus d’attaques (verbales et physiques) que les juifs dans toutes les autres républiques de l’ex-URSS.

Mais ce rapport n’était pas basé sur une étude systématique, et ses auteurs n’ont pas analysé les données collectées par les organisations qui surveillent la xénophobie en Ukraine. A en juger par les sources citées, les auteurs ont procédé à un calcul mécanique des incidents, quelle que soit la gravité ou la fiabilité des informations. Par exemple, les insultes verbales ont été comptabilisées comme les délits avérés.

Selon l’information la plus frappante contenue dans le rapport, le nombre d’incidents antisémites en Ukraine a doublé par rapport à l’année précédente. Selon les organisations de surveillance, dont le National Minority Rights Monitoring Group, qui surveille les crimes haineux en Ukraine depuis plus de dix ans, le nombre de délits antisémites n’a pourtant augmenté que de 19 à 24 %. En 2017, aucun cas de violence antisémite n’a été enregistré, et en 2016 il n’y en avait qu’un seul, a déclaré son directeur sur Radio Liberty.

Un examen attentif du rapport a montré qu’il ne s’agissait pas d’une évaluation approfondie de la situation sur le terrain. La recrudescence de l’antisémitisme était simplement l’une des cibles privilégiées de la campagne de propagande anti-ukrainienne menée par le Kremlin pour justifier son agression contre l’Ukraine. Cela explique pourquoi les médias de propagande russes ont volontiers repris cette information.

D’autres preuves du contraire ont fait surface dans une enquête du Pew Research Center, qui est basé aux États-Unis, concernant 18 pays d’Europe centrale et orientale. Ce rapport a montré que les opinions antisémites étaient moins répandues en Ukraine qu’ailleurs en Europe. En Russie, selon ce même document, l’antisémitisme est presque trois fois plus courant.

Le site Ukraine.ru a critiqué la méthodologie de Pew en faisant valoir que la question « Souhaitez-vous avoir des juifs comme compatriotes ? » ne permettait pas de démontrer l’antisémitisme des personnes sondées.

L’enquête de Pew, Croyance religieuse et appartenance nationale en Europe centrale et occidentale, contient une section méthodologique expliquant les dessous de la recherche. Il est important d’analyser et de comprendre les méthodes employées.

6.2 Interprétation erronée des résultats

La propagande a pour attribut de chercher à paraître véridique et authentique. Les affirmations propagandistes recourent donc souvent à des résultats de sondage déformés.

Le site russe pro-Kremlin Ukraina.ru a publié un article sur les dernières analyses de Fitch Ratings concernant l’Ukraine, se focalisant exclusivement sur les éléments négatifs et ignorant la prévision d’ensemble, qui était stable. En utilisant uniquement la première phrase du rapport de Fitch, Ukraina.ru a affirmé que l’Ukraine avait la troisième plus importante économie parallèle au monde, derrière l’Azerbaïdjan et le Nigéria.

Le rapport de Fitch commence par ces mots : « Les notations de l’Ukraine reflètent une faible liquidité extérieure, un lourd fardeau de la dette publique et des faiblesses structurelles, dues à la faiblesse du secteur bancaire, à des contraintes institutionnelles et à des risques géopolitiques et politiques. »

Ukraina.ru n’a rien retenu d’autre du rapport de Fitch, ignorant complètement la phrase qui suit : « Ces facteurs sont contrebalancés par le regain de crédibilité et de cohérence des politiques du pays, sa capacité immédiate à rembourser sa dette, et ses soutiens bilatéraux et multilatéraux. »

Pour démentir ce genre de déformation, il est particulièrement utile de retrouver et d’analyser le rapport complet.

Ukraina.ru a publié une autre affirmation erronée selon laquelle la plupart des Ukrainiens ne souhaitent pas du tout pouvoir voyager dans l’Union européenne sans visa.

La source de cette fausse information est un sondage réalisé par la Democratic Initiatives Foundation début juin 2018.

On pouvait y lire la question suivante : « Quelle est l’importance pour vous de l’introduction du régime de voyage sans visa avec les pays de l’UE ? » 10 % des sondés ont répondu « très important », 29 % « important », 24 % « légèrement important », 34 % « pas important » et près de 4 % ont estimé que la question était trop difficile.

 

Seuls 34 % d’entre eux ont déclaré qu’il n’était pas important de pouvoir voyager dans l’UE sans visa.

Mais les médias russes ont décidé d’additionner les résultats de « légèrement important » et « pas important », produisant ainsi le chiffre de 58 %, et ont affirmé que la majorité des Ukrainiens n’étaient pas du tout intéressés par cette perspective.

En additionnant les sondés ayant répondu « très important », « important » et « légèrement important », on obtient pourtant 63 % des réponses. Cela indique que 63 % des Ukrainiens estiment que les voyages sans visa ont une certaine importance.

6.3 Comparaisons caducs

Ukraina.ru a publié un article selon lequel les prix des denrées alimentaires en Ukraine ont rattrapé les prix en Europe en février 2018. Cette affirmation repose sur un post Facebook de l’ancien Premier ministre ukrainien Mykola Azarov. L’affirmation d’Azarov reposait sur des données de RIA Novosti présentées dans une infographie douteuse, bien qu’attrayante.

Selon l’indice du coût de la vie de Numbeo, l’Ukraine est le pays le moins cher d’Europe, avec la Moldavie, la Macédoine et l’Albanie. Le site compare également les prix des denrées alimentaires dans différentes villes du monde, montrant que les prix ukrainiens sont en moyenne bien inférieurs aux niveaux européens. La comparaison des nombres absolus sans tenir compte d’autres indicateurs est donc erronée, a pu établir Stopfake.

Essayez de différencier les vrais chiffres et faits des fausses informations. Très souvent, ces types de contrefaçons incluent des chiffres réels mais aussi des chiffres issus de sources suspectes ou inventées.

Au Canada, par exemple, une information selon laquelle les réfugiés reçoivent plus d’aide de l’Etat que les retraités circule sur les réseaux sociaux depuis 2015.

 

Ce n’est pas vrai, selon les informations du gouvernement canadien. Certains réfugiés pris en charge par le gouvernement reçoivent une somme modique chaque mois pendant leur première année au Canada – environ 800 $ pour une personne seule – et une allocation d’installation unique d’environ 900 $. Ils peuvent également obtenir un prêt de quelques centaines de dollars pour le versement d’un acompte quand ils louent un logement. Il y aussi des fonds disponibles pour les femmes enceintes, les nouveau-nés et les jeunes enfants scolarisés. Mais les réfugiés pris en charge par le gouvernement doivent rembourser le coût de leur voyage au Canada et de leur examen médical initial, et ce avec intérêt.

Les demandeurs d’asile au Canada ne reçoivent aucune aide sociale tant qu’ils ne sont pas le statut de résident permanent ; ils peuvent alors recevoir l’aide sociale provinciale comme n’importe quel citoyen du pays. Les réfugiés parrainés par le secteur privé ne peuvent recevoir aucune assistance sociale – ils sont sous la responsabilité financière de leurs parrains pour la durée du parrainage, généralement environ un an.

Les Canadiens célibataires d’un certain âge et dans la tranche de revenu la plus basse reçoivent au moins 1300 $ par mois grâce aux suppléments de revenu garantis et aux pensions publiques, comme l’indique le site du gouvernement.

De plus, une étude de 2004 montre que la grande majorité des revenus dont disposent les réfugiés au cours de leurs sept premières années au Canada proviennent de leur emploi, non des aides sociales. Ils ont parfois plus de succès que les migrants économiques ou ceux arrivés par regroupement familial.

Mais le mythe persiste. Des variantes de cette rumeur ont vu le jour aux États-Unis, selon Snopes, ainsi qu’en Australie, selon ABC News. La page la plus fréquentée sur le site du groupe du Conseil canadien pour les réfugiés décrédibilise ce mythe.

 

Un bref résumé

Voici ce à quoi il faut faire attention quand vous lisez des sondages d’opinion, ainsi que dans vos recherches en général :

La méthodologie est-elle décrite ? Comment sont formulées les questions ? Elles sont parfois conçues pour inciter certaines réponses. Quel échantillon de la population a été sondé : par âge, lieu de résidence et autres caractéristiques ? L’échantillon est-il statistiquement fiable ? Quelle est la réputation du chercheur ? Est-il connu dans la communauté professionnelle ? Qui a financé la recherche ? Les centres de recherche sérieux ne dissimulent jamais l’identité de leurs clients quand ils publient des données. Comparez les résultats de vos recherches avec d’autres données et résultats. S’ils sont très différents, les résultats doivent être remis en question.

Une trousse de secours

Ces conseils répertorient et décrivent les méthodes de manipulation de l’information les plus courantes et offrent des moyens rapides que chacun peut mettre en oeuvre pour vérifier les faits énoncés. Il s’agit d’une « trousse de vérification de secours » et un point de départ dans vos réflexions sur le traitement des fausses nouvelles.

J’invite tous les lecteurs à me partager leur avis et à enrichir ce guide. Je serai heureuse de répondre à vos commentaires par e-mail, sur Twitter ou sur Facebook.

Pour comprendre plus en profondeur comment vérifier des informations, je vous invite également à visiter la rubrique Outils sur le site StopFake.

Voir également la page outils du GIJN sur la vérification d’informations.

Cet article a été traduit par Olivier Holmey. 

Olga Yurkova est la cofondatrice du projet ukrainien de fact checking StopFake et la cofondatrice de Forbidden Facts, un projet international qui vise à décrédibiliser les fausses nouvelles et à informer sur les mécanismes qui les sous-tendent. StopFake s’intéresse aux médias qui publient dans 13 langues différentes, mène des recherches universitaires sur les fausses nouvelles et propose une formation institutionnelle. Depuis son lancement en 2014, l’organisation a vérifié des dizaines de milliers d’articles, de photos et de vidéos et a révélé plus de 3 000 cas de tromperies.

Ce travail est sous licence (Creative Commons) Licence Creative Commons Attribution-NonCommercial 4.0 International

Republier gratuitement nos articles, en ligne ou en version imprimée, sous une licence Creative Commons.

Republier cet article

Ce travail est sous licence (Creative Commons) Licence Creative Commons Attribution-NonCommercial 4.0 International


Material from GIJN’s website is generally available for republication under a Creative Commons Attribution-NonCommercial 4.0 International license. Images usually are published under a different license, so we advise you to use alternatives or contact us regarding permission. Here are our full terms for republication. You must credit the author, link to the original story, and name GIJN as the first publisher. For any queries or to send us a courtesy republication note, write to hello@gijn.org.

Lire la suite

Enseignement et Formation

Webinaire GIJN : Enquêter sur le conflit Israël-Hamas

GIJN organise le mardi 30 avril 2024 à 13h GMT (13h Dakar, 15h Paris) un webinaire au cours duquel trois journalistes d’investigation chevronnés partageront des conseils et des outils sur la manière d’enquêter sur un conflit tel que celui entre Israël et le Hamas et sur un terrain quasi impossible tel que Gaza.

Actualités et analyses Outils et conseils pour enquêter

Couvrir une élection : conseils par – et pour – des femmes journalistes

À l’occasion de la Journée internationale de la femme et d’une année 2024 potentiellement tumultueuse sur le plan électoral (quatre milliards de personnes dans plus de 50 pays sont appelées à voter cette année), GIJN s’est entretenu avec des femmes journalistes d’investigation du monde entier pour connaître leurs meilleures pratiques en matière de couverture des élections.