
Notre-Dame : « Youtube a montré les limites du fact checking automatisé » | la revue des médias
- Select a language for the TTS:
- French Female
- French Male
- French Canadian Female
- French Canadian Male
- Language selected: (auto detect) - FR
Play all audios:
Le 15 avril, Notre-Dame s’est embrasée. Sur Youtube, un outil de fact checking déployé aux États-Unis et en Corée du Sud a associé les images de la cathédrale en feu aux événements du 11
septembre. Nous avons essayé de comprendre pourquoi avec le chercheur Jérémie Nicey.
Pouvez-vous expliquer ce qu’il s’est passé sur les vidéos montrant l’incendie de Notre-Dame sur Youtube ?
Jérémie Nicey : YouTube a mis en place un dispositif qui associe une image avec un bandeau d’alerte et renvoie sur Wikipédia et d’autres organismes associés. Dans les deux pays dans lesquels
il est actif, à savoir les États-Unis et la Corée du Sud, ce dispositif a associé les images de Notre-Dame de Paris en train de brûler aux événements du 11 septembre 2001, puisque,
semble-t-il, les algorithmes ont détecté une similarité d'images. Le problème, évidemment, est que cela ne correspondait pas au bon événement.
Ce dispositif d'alerte a été instauré récemment pour pouvoir parer aux contenus douteux qui circulent sur la plateforme en donnant des éléments de contexte. L'idée, ici est de contrer le
complotisme puisque l'on sait que les vidéos qui circulent le plus sur le Net sont celles qui remettent en cause l’origine de ce type d’événements.
Pour autant, cela peut être contre-productif. Si vous êtes conspirationniste et pensez que Notre-Dame a été brûlée intentionnellement, par exemple pour pouvoir détourner l’attention des
problèmes politiques, vous vous dites que Google voit le complot partout et que c’est suspicieux. Je pense que lire en dessous d’une vidéo un message mentionnant "attention au complot"
nourrit le complot lui-même. Auprès de certaines populations, l'élément de contexte n'est pas suffisant. Énormément de jeunes s'informent via Youtube par exemple. Un adolescent de 13 ans qui
regarde la vidéo aura peut-être entendu parler des attentats de 2001, souvent vaguement car il n’était pas encore né. Il voit sur la vidéo que le bâtiment brûle et que le bandeau mentionne
que ce sont les attentats de 2001. Cette situation peut attiser une curiosité et le pousser à aller voir des vidéos conspirationnistes et d’autres vidéos qu’il n’aurait peut-être jamais
vues. Dans certains cas, cela peut donc renforcer le complotisme ; mais cette hypothèse reste à valider et cet impact à mesurer, ce que l’on ne parvient pas réellement à faire aujourd’hui.
On ignore par ailleurs pourquoi seuls les États-Unis et la Corée du Sud sont concernés. Est-ce parce que ce sont les deux pays sur lesquels la plateforme cherche le plus à se mettre en
valeur ? Est-ce que l'algorithme détecte que ce serait là-bas que les contenus complotistes vont le plus circuler ? Pourquoi le bandeau n’a-t-il pas été ajouté aux vidéos en France ? Pour
l'instant, ça n'a pas été totalement questionné et de la part de Google, ça n'a pas été énoncé ou explicité. Je peux entendre que Google n’ait pas envie de le déployer mondialement d'un
coup. Mais dans ce cas-là, autant aller chercher des pays plus petits de moindre envergure, sur lesquels cela sera moins visible, non ?
Si l'algorithme devient performant à l’avenir et qu’il décide de faire apparaître ce type de bandeau de contextualisation dans certains pays plutôt que d'autres, je veux que l’on nous
explique pour quelles raisons dans certains pays il n'apparaîtra pas. Parce que l'algorithme pensera que les gens sont moins bêtes dans une partie du monde et qu'ils n'ont pas besoin du
contexte ? Par exemple, si le bandeau ne s’affiche pas en Suède mais qu’il s’affiche dans un autre pays, cela laisserait penser que 100 % des Suédois auraient tout compris ou qu’aucun
Suédois n’est complotiste. Or cela n’est évidemment pas le cas. Il faut donc le déployer mondialement, ou alors que Google explique ses choix, avec davantage de transparence.
Comment arrive-t-on à cette situation dans laquelle un géant du Net entraîne la propagation d’une fausse information alors qu'il essaie de lutter contre la désinformation ?
Jérémie Nicey : Ce n’est pas à proprement parler la diffusion d’une fausse information dans la mesure où il s'agit simplement d'un bandeau de contextualisation. Effectivement, cela pose
problème car on a l'impression lorsque l’on ouvre la vidéo qu’elle concerne les attentats du 11 septembre. Mais je pense qu’il faut minimiser son impact car il s’agit d’un petit bandeau de
bas d’écran alors que dans la fenêtre de visionnage, les titres et le descriptif de l'image expliquent bien qu’il s’agit de Notre-Dame de Paris. Donc, ce n'est pas une diffusion de fausse
information en tant que telle.
En revanche, même s’il existe une volonté de lutter contre la circulation de désinformation, cette faille prouve que ces plateformes ne s'y prennent pas assez bien car leurs investissements
sont sans doute insuffisants. Google se retrouve ici dans la position de l'arroseur arrosé, c'est-à-dire que le groupe veut lutter contre ce qui est douteux, imprécis et faux, mais finit par
l’alimenter. Si Google s’implique dans la lutte contre les fausses informations, c’est dans son intérêt. Le moteur de recherche cherche à obtenir une meilleure image et à rassurer les
annonceurs. Le nettoyage numérique des fausses informations débute, mais ne rencontre pas la même viralité que les contenus dénoncés. D’une certaine façon, les plateformes s’y retrouvent car
elles gagnent de l'argent grâce aux annonceurs, quelle que soit la nature des contenus. Les contenus douteux et malveillants, sont souvent ceux qui circulent le plus ou qui sont les plus
partagés et les plus vus, ils sont donc très rentables.
D’autre part, il faut nuancer l’impact des fausses informations. Si, certes, ce sont des contenus qui circulent beaucoup, certaines études montrent qu’il n'est pas dit que les gens y
croient, de la même manière qu’il est possible d’énoncer des choses sans forcément y croire dans les cercles familiaux, professionnels ou privés. Si impact il y a un, il faut le considérer
du côté des personnes qui adhéraient à ces théories et vont être renforcées dans leur croyance.
En matière de vote, des études démontrent un faible impact, il faut donc relativiser. Si l’on observe le nombre de partages, on peut prendre peur, car ce sont parfois des données élevées, et
pour les journalistes, cela représente une forme de concurrence. Il y a des raisons de s’en alarmer à cause du temps d'attention consacré. Mais il faut parier sur l'intelligence collective
et individuelle, tout en renforçant l'esprit critique, en formant encore davantage et pas seulement au sein des écoles. Il faut des espaces de paroles pour que les gens, à un moment ou un
autre, puissent s'armer et peut-être même, un jour, trouver cela complètement bidon ou rire de ce que sont les fausses informations.
Faut-il douter de l'apport des algorithmes, et plus généralement de la technologie, en matière de fact checking ?
Jérémie Nicey : La puissance des algorithmes est vérifiée, à la fois dans la façon dont ils exploitent les traces, les liens entre les membres d'une communauté pour se conseiller tel ou tel
contenu ou pour y associer des envois de publicités ciblées, selon l'historique de navigation. Donc, les algorithmes sont puissants, ils sont même au cœur de l’économie de ces géants du
numérique.
Dans le cas présent, cette puissance se transforme en nuisance. Ce qui semblait être une chose plus efficace que l’humain s’avère s’être trompé. Alors que 95 % de la population mondiale ne
se serait pas faite avoir, l’algorithme a failli. Ce qui pose souvent problème avec les algorithmes ce sont les failles liées au contexte. Un algorithme n'arrive pas bien à repérer l'ironie
par exemple. Il faut que les géants du Net travaillent encore beaucoup.
« Les robots ne peuvent pas tout, il faut qu’ils soient guidés. »
L’erreur de Youtube montre les limites du fact checking automatisé. Mais, quelque part, cela met aussi en évidence le fait que l'esprit critique humain, l'intelligence non artificielle a
encore toute son utilité, et que ce qui est intéressant, c'est de la coupler avec cette technologie. Les robots ne peuvent pas tout, il faut qu’ils soient guidés. D’ailleurs il ne faut pas
oublier que derrière chaque robot, chaque intelligence artificielle, chaque algorithme, chaque paramétrage, il y a un humain.
Quand on évoque l’intelligence artificielle, il faut savoir à quoi l’on se réfère. Ce qui est intéressant, c'est que le terme « artificiel » lui-même dit déjà qu'on est un peu dans l'erreur
: ce qui est artificiel, c'est ce qui est factice, stéréotypé, arbitraire… Toute la littérature actuelle sur l'IA montre que les usagers et les professionnels qui y travaillent font preuve
d’un grand enthousiasme, mais aussi d’une grande prudence. Dans le cas présent, l’IA n'aide pas du tout, y compris parce que ce qui est artificiel n'est pas forcément raisonné.
Si, par exemple, les algorithmes des plateformes recommandent des vidéos complotistes, n’ont-elles pas une responsabilité dans le développement de la désinformation ?
Jérémie Nicey : Cette responsabilité est évidente parce que ce sont des espaces de dialogue qui ont été longtemps non modérés. Même si au départ l’intention n’est pas de diffuser ce type de
message, la nature humaine fait que certains y trouvent un intérêt. Sur l'année 2016 les réseaux sociaux ont pu avoir un impact sur la circulation des messages électoraux concernant le
Brexit au Royaume-Uni et la présidentielle en faveur de Donald Trump, mais moins sur le vote lui-même qui aurait sans doute pris la même tournure, à quelques nuances près.
Mais il reste gênant que, les personnes confrontées à des contenus n’ont pas toujours les armes suffisantes pour déterminer leur caractère douteux. Ils n’ont pas nécessairement les éléments
de contexte pour discerner le vrai du faux. Même des requêtes assez précises, quand vous les effectuez sur un moteur de recherche, peuvent demander du temps pour être sûr de tomber sur les
bons documents. Parfois, vous pensez trouver les documents ou l’information que vous cherchez et vous vous rendez compte qu’ils datent d’il y a plusieurs années. Ces derniers ne sont
peut-être plus viables car beaucoup de choses ont pu se passer depuis. C'est encore plus problématique dans le cas de la justice : les verdicts parfois changent après que des justiciables
aient fait appel et obtiennent gain de cause.
« L’opacité est le plus gros problème du moteur de recherche de Google. »
Il ne faut pas penser que les fausses informations ne concernent que les gens peu éduqués. Même pour les populations les plus initiées, il est difficile de se retrouver dans le fouillis de
ce qu'est le moteur de recherche Google. En réalité, le plus gros problème est celui de son opacité : on ne sait pas comment il fonctionne. Si tout d'un coup, j'apprends quelque chose sur
YouTube ou sur Facebook, et que je souhaite recouper l’information sur Google, il y a cette opacité de l'algorithme qui fait que même ma requête ne trouvera pas forcément ni satisfaction ni
pertinence absolue. Et le pire c’est que ce sont les contenus les plus partagés qui sont les plus visibles. Si je mets en doute une information que j’ai entendue et que je veux la recouper
ailleurs, l’information sera écrite un peu différemment mais racontera souvent la même chose. Il faut prendre du recul sur les informations qui circulent beaucoup sur les réseaux sociaux et
s’en méfier.
Comment les géants du numérique, notamment Google et Facebook, peuvent-elles lutter plus efficacement contre les fake news ?
Jérémie Nicey : Cela fait déjà trois ans que les plateformes numériques empruntent cette voie, même si elles le font de manière insuffisante. Le choc de l'élection de Donald Trump les a fait
réagir car elles ont été montrées du doigt pour avoir permis son élection, alors qu’il est possible de relativiser cette accusation.
En réalité, les plateformes ne s’investissent pas avec assez de vigueur dans la lutte contre les fausses informations. Les dispositifs mis en place sont insuffisants, en tout cas pas à la
hauteur d’autres innovations qu’ils financent. Il faut se demander si c’est vers elles à qui l’on doit confier toujours plus notre temps d'attention, mais surtout notre temps de confiance et
de fiabilité. Je pense que non. Il faut équilibrer ses consommations. Les informations devraient circuler sur les quatre supports que sont la presse écrite imprimée, la radio, la télé et le
Web. C’est là où devrait revenir le public.
Il faut faire en sorte que les gens sachent que ce qui circule sur les réseaux sociaux possède un soupçon de non-fiabilité, c'est-à-dire que les gens aient le réflexe de se dire : « Cette
information est apparue sur un réseau social, je peux la lire, mais je peux fortement la penser comme bidon ou comme à relativiser. Elle me met peut-être en alerte sur un événement, mais je
vais devoir en compléter ma lecture et ma connaissance ailleurs ». Nous sommes dans la même situation lorsque quelqu'un que vous ne connaissez pas évoque un fait dans la rue : vous allez
recouper l'information, en parler à d'autres, le lire dans les journaux ou écouter la radio, qui sont des espaces fiables. Intuitivement, dès que les enfants entendent quelque chose qui les
interpelle, ils demandent : «Est-ce vrai ? » Ils vont voir quelqu'un de référence, souvent les parents. Nous avons toujours, à un moment ou un autre, une personne, un lieu ou un média de
référence, pour s'assurer de la véracité d'une information.
Que pensez-vous des investissements opérés dans le fact checking depuis quelques années, notamment dans certaines rédactions ?
Jérémie Nicey : Après des années de défiance, de concurrence et de difficultés économiques, que ces géants du Net fassent travailler des facts checkers est, pour le journalisme, bon signe
parce que cela donne une légitimité à ceux qui savent faire et cela prouve que cette expertise est importante. D’un autre côté, pour les rédactions, il y a aussi une dimension marketing : «
Le fact checking, on sait le faire, des poids lourds du numérique nous font confiance. On est capable d’apporter des éléments pour permettre au lecteur de se repérer, et évidemment des
informations fiables. ».
« En France, la lutte opérée contre les fausses informations prend un fort caractère marketing. »
Ce qui pose problème, pour la France, c'est que depuis deux ans, la lutte opérée contre les fausses informations prend un fort caractère marketing. Les plateformes communiquent plus ou moins
sur le mode « Nous luttons contre les fake news pour montrer que nous sommes actifs en mettant en place des dispositifs réduits et en créant des partenariats avec ceux qui savent déjà
faire, comme les fact checkers au sein des rédactions journalistiques ».
Sur Check News, le site de fact checking de Libération, la rédaction a révélé recevoir environ 1 000 dollars par information vérifiée @Libération a perçu 245 000 dollars en 2018 de la part
de Facebook pour 249 articles publié et entré dans la base Facebook @. Pourquoi est-ce financé à cette hauteur-là ? Et surtout est-ce qu'il n'y a pas une forme de syndrome de Stockholm ? Un
média fiable pourrait très bien se contenter des espaces qui sont les siens pour diffuser les informations vraies, et laisser ce qui est de l'ordre de l'information fausse ou douteuse sur
les réseaux sociaux, et faire le pari que les gens s'en détourneront avec le temps.
Ces financements sont-ils une bonne nouvelle pour le journalisme de manière générale ?
Jérémie Nicey : Trouver des financeurs et des partenaires dans un contexte de précarité et de difficultés financières des rédactions interroge sur le fait que des partenaires d'ordre privé
et commerciaux financent les activités du journalisme. Même si, ce modèle n’est pas nouveau puisque c’est le modèle dominant depuis le XIXᵉ siècle. C’est davantage l’industrie publicitaire
qui va permettre d'avoir un modèle économique stable, que le public qui l’achète régulièrement.
« Il serait sans doute plus intéressant que des fondations puissantes économiquement financent le fact checking. »
Il serait sans doute plus intéressant que des fondations puissantes économiquement financent le fact checking. Certaines le font pour l'instant dans des proportions insuffisantes. Cela donne
un peu l’impression que les plateformes lâchent quelques piécettes en espérant que les journalistes réalisent un bon travail et que cela rejaillisse sur leur notoriété et sur leur
fiabilité. Des piécettes qui vous sont dues puisque le trafic qu’apportent les médias à Facebook, ne leur est pas rétribué.
Avec mon collègue Laurent Bigot, auteur d’une thèse pionnière en France sur le fact checking, nous avons continué d’interroger ces journalistes spécialisés pour en savoir plus. En réalité,
ils connaissent complètement les limites de ce système, et les énoncent ouvertement, mais sont animés par une dimension citoyenne. Ils espèrent que cela permettra de toucher un public plus
large qu’ils n’arrivaient pas à toucher jusque-là. Et, dans une certaine mesure, en tant que chercheurs, mes collègues et moi espérons qu’en interrogeant ces phénomènes nous parvenons aussi
à ce type de sensibilisation.
Comment la télévision française traite-t-elle du patrimoine ? Quelques jours après l'incendie survenu à Notre-Dame de Paris, nous avons posé la question à Thibault Le Hégarat. Retour sur un
demi-siècle de traitement médiatique.
Avec le développement d’Internet et des technologies numériques, les acteurs historiques du secteur de la musique se sont repositionnés sur toute la chaîne de valeur. En quoi les métadonnées
constituent-elles pour eux, mais aussi pour les nouveaux acteurs de l’Internet, un enjeu ?