
Infocalypse : la propagation des hypertrucages menace la société
- Select a language for the TTS:
- French Female
- French Male
- French Canadian Female
- French Canadian Male
- Language selected: (auto detect) - FR
Play all audios:
Ann-Louise Davidson reçoit des fonds du Conseil de recherches en sciences humaines (CRSH) et Patrimoine Canada pour soutenir sa recherche sur comment contrer les hypertrucages.
François Berger ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre
affiliation que son organisme de recherche.
Nous assistons à l’émergence d’une nouvelle génération de désinformation qui chamboule nos repères.
En effet, l’inquiétude provoquée par la popularité croissante des deepfakes, ou hypertrucages malveillants, ont amené l’auteure et conseillère spécialisée en médias synthétiques, Nina
Schick, à annoncer l’imminence d’une infocalypse.
Les hypertrucages sont des enregistrements audio et vidéo de personnes réelles prononçant et exécutant des choses qu’elles n’ont jamais dites ou faites, créés à l’aide des algorithmes
d’apprentissage automatique.
Par exemple, le Dalí Museum a réussi l’exploit de faire revivre synthétiquement Salvador Dalí pour qu’il puisse accueillir les visiteurs lors de son exposition et prendre un selfie, ou
égoportrait, avec eux.
Mais aussi, une femme a utilisé cette même technologie pour créer de fausses vidéos des pom-pom girls rivales de sa fille afin de les discréditer.
Le véritable problème des hypertrucages malveillants, ou deepfakes, réside donc dans l’utilisation non éthique de la technologie, qui devient de plus en plus sophistiquée et accessible. Elle
permet aux individus et organisations mal intentionnés de créer et diffuser des tromperies, alors que notre société n’est pas équipée pour distinguer le vrai du faux, encore moins pour agir
avec discernement contre ce phénomène.
Notre équipe de chercheurs et d’étudiants en éducation, en technologie éducative et en design de l’Université Laval et de l’Université Concordia a été subventionnée par une initiative
conjointe entre Patrimoine canadien et le Conseil de recherches en sciences humaines (CRSH) pour explorer l’agentivité collective numérique comme compétence essentielle pour aider à
contrecarrer les deepfakes.
L’agentivité humaine, telle que définie par le chercheur en psychologie Albert Bandura, est notre capacité d’influencer le cours des événements et notre environnement par nos actions. Ceci
implique l’intentionnalité, la capacité de se projeter dans le futur, l’autoréactivité et l’autoréflexivité. Appliquée au numérique, cette compétence implique le passage de l’observation
passive des partages de deepfakes sur les réseaux sociaux à l’adoption active de stratégies en ligne pour dénoncer ces tromperies et les contrer par des faits.
À la suite d’une rencontre d’échange avec des invités experts en recherche, en journalisme et en médias sociaux pour discuter des solutions pour « aplatir » la courbe de la désinformation,
amplifiée par la crise sanitaire », le Scientifique en chef du Québec, Rémi Quirion, sort avec un constat : il y a grande urgence pour la formation à la désinformation dès l’école primaire.
Parallèlement, durant le webinaire « Faites vos recherches, l’économie cognitive de la désinformation », Sébastien Tremblay, chercheur en sciences cognitives à l’Université Laval, mettait de
l’avant le rôle de la formation de l’humain à la pensée critique à l’égard du numérique.
Cette compétence est aussi citée par le cadre de référence de la compétence numérique. Issu du plan d’action numérique en éducation et en enseignement supérieur par le ministère de
l’Éducation et de l’Enseignement supérieur, ce cadre définit les compétences numériques, et propose des stratégies pour bien les intégrer dans l’offre de formation.
Manifestement, trouver des solutions à la désinformation au-delà des interventions proposées par les géants d’internet, comme désactiver de faux comptes et retirer de contenus trompeurs, est
primordial et vital pour l’humanité.
La désinformation fait dérailler les conversations et empêche les gens de se mobiliser sur des enjeux particuliers. Elle permet aux théories du complot de s’installer dans l’esprit des
individus vulnérables. Comme le démontre l’exemple du Pizzagate, les mythes générés par les campagnes de désinformations persistent même après leurs démystifications.
L’infodémie qui a cours lors de la crise sanitaire s’est avérée incontrôlable.
La gravité de la situation ainsi que l’importance d’agir rapidement et collectivement face à cette menace vient actuellement se heurter à des mouvements anti-vaccin qui, par la diffusion
d’informations trompeuses, mettent en péril la santé de la population. Eve Dubé, chercheuse à l’Institut national de santé publique du Québec et au Centre de recherche du CHU de Québec,
affirme que « la pandémie a fourni une occasion de rapprochement entre les conspirationnistes et les antivaccins ».
Toutefois, si la désinformation ne date pas d’hier, en quoi l’apparition des hypertrucages a-t-elle lieu de nous inquiéter ?
Comme le mentionne Giorgio Patrini, CEO et Scientifique en chef chez Deeptrace, la montée en puissance de ce phénomène nous oblige désormais à douter en la véracité de tout contenu
audiovisuel. Les dénégations deviennent de plus en plus crédibles et le dividende du menteur plus puissant. Toute personne peut facilement remettre en question des faits irréfutables.
En plus, les vidéos sont particulièrement efficaces pour déclencher des réactions émotionnelles car nous considérons généralement la vidéo comme une preuve irréfutable de véracité.
Ashish Jaiman, directeur des opérations technologiques chez Microsoft, explique que les quatre grandes catégories d’interventions pour contrer les deepfakes malveillants peuvent se résumer
aux réglementations et aux actions législatives, aux politiques et à la gouvernance des plates-formes, aux outils technologiques et à l’éducation aux médias.
Or, bien que des débats concernant les meilleures solutions à adopter puissent avoir cours en ce moment, l’éducation a l’avantage de se pencher sur le problème à sa source. Tom van de Weghe,
chercheur en deepfake à l’université Standford, discute du besoin de renforcer la résilience de notre société, de l’inoculer pour qu’elle aie un meilleur radar pour les deepfakes.
En ce sens, plusieurs campagnes de sensibilisations ont recours à des personnalités bien connues, comme l’acteur Tom Cruise, afin d’avertir le grand public quant aux risques associés aux
utilisations malveillantes des médias synthétiques.
Comme exemples d’initiatives pour dénoncer les deepfakes, en 2018, Jordan Peel, acteur et fondateur de Monkeypaw Productions, publie le deepfake du président Obama, une des premières vidéos
de sensibilisation avec des millions de visionnements. Plus récemment le mouvement citoyen On Est Prêt publie un deepfake du président Macron appelant pour une « vraie loi climat ». L’équipe
de Channel 4 fait danser la reine d’Angleterre, Élisabeth II, sur une table lors d’une fausse allocution de Noël 2021.
Sachant qu’un nombre important de personnes s’abreuvent d’informations à partir de la chaine YouTube, plusieurs initiatives de formation voient le jour.
Ainsi, à travers l’usage d’un robot conversationnel, Alexis De Lancer, animateur de l’émission Les Décrypteurs, à Radio-Canada, initie les visiteurs aux hypertrucages. L’agence de presse
Reuters offre une formation disponible en ligne en 16 langues sur les contenus médiatiques manipulés.
Toutefois, malgré que ces initiatives contribuent à sensibiliser la population, les défis qu’impliquent les deepfakes sont gigantesques. La solution miracle n’existe pas et nous avons besoin
que tous les acteurs se mobilisent afin d’enrayer le problème.
Une fois que nous identifierons les facteurs qui mènent à la vulnérabilité des individus face à la désinformation, nous pourrons mieux intervenir.
D’ici là, équiper les citoyens pour non seulement se protéger eux-mêmes, mais aussi utiliser leurs compétences numériques pour agir et protéger leur famille, leur entourage, leur communauté
et notre société au sein des environnements numériques devient une nécessité.
Les deepfakes, ou ses variantes de la désinformation, deviennent rapidement viraux et envahissants, et par le fait même presque impossibles à détecter. Comme société, il est grand temps de
passer de la réaction à la prise de pouvoir par des actions numériques collectives.