Avec les avancées technologiques, les fake news entreront dans une nouvelle phase inquiétante – 08/04/2018 – Illustrious

by Sally

Avec les avancées technologiques, les fake news entreront dans une nouvelle phase inquiétante – 08/04/2018 – Illustrious
👨‍💻

ABSTRAIT Les progrès technologiques faciliteront de plus en plus la falsification des audios et des vidéos, faisant passer les fausses nouvelles à une nouvelle phase plus inquiétante. Les auteurs débattent de l’efficacité des initiatives pour lutter contre ce type de manipulation. Ils suggèrent qu’il est nécessaire de discuter de ce qui n’a pas fonctionné avec Internet et de repenser le contrat social de l’information.

La vidéo attire l’attention. Michelle Obama, ancienne Première Dame des États-Unis, porte un chemisier décolleté, sourit et commence à se déshabiller pour la caméra. Cela semble réel, mais ce n’est pas le cas ; c’est un exemple de « deep fake » (deep fake), réalisé à l’aide de l’intelligence artificielle.

Le profane peut être lent à accepter que ces images ne sont pas vraies et n’ont pas été filmées, mais synthétisées numériquement. Cette technologie, auparavant accessible uniquement à Hollywood, est de plus en plus disponible.

Vous pouvez appliquer le visage de quelqu’un à des scènes de sexe ou à toute situation compromettante. Idem pour la voix. Avec des échantillons du discours d’une personne, le logiciel lui fait dire n’importe quoi, avec un timbre, une cadence et une intonation proches de la perfection.

En d’autres termes, la diffusion de textes au contenu en quelque sorte mensonger n’est que le début du phénomène des fake news. La prochaine étape semble être l’ère des fausses nouvelles profondes. Il sera de plus en plus difficile de séparer la réalité de la manipulation numérique — et certains disent que nous vivons les derniers jours de l’idée même de réalité, comme le font Claire Wardle et Hossein Derakhshan dans un récent rapport du Conseil de l’Europe.

Un autre couple d’auteurs (Danielle Citron de l’Université du Maryland et Robert Chesney de l’Université du Texas) a publié en février un article dans le magazine Lawfare dans lequel ils discutaient de la façon dont les « faux profonds » rendent la manipulation encore plus pernicieuse.

Face à des vidéos ou des enregistrements qui semblent réels, quelle réputation résisterait aux attaques ? Comment savez-vous que la scène où un politicien dit des choses haineuses ou reçoit un pot-de-vin est fausse ?

Ce n’est pas seulement une menace pour les individus, mais pour les piliers mêmes de la coexistence démocratique. Une fausse vidéo peut être utilisée pour déclencher des bouleversements sociaux. Par exemple, en montrant un policier tirant sur un civil innocent, ou un bandit agressant des passants à un endroit donné.

Avant qu’il n’y ait eu le temps de dénoncer la falsification profonde, les images ont pu susciter des réactions très réelles, comme le lynchage d’un innocent.

Compte tenu du danger croissant que représentent les fake news, il n’est pas surprenant que de plus en plus d’acteurs se mobilisent pour les combattre. Le phénomène en lui-même n’est cependant pas nouveau.

Il existe des enregistrements de manipulation d’informations dans le but d’influencer le processus politique depuis au moins l’Empire romain. Dans un passé moins lointain, le journal New York Sun a connu le succès en 1835 avec la publication d’articles vantant la découverte de la vie sur la Lune. Plus récemment, en 2006, une chaîne de télévision publique belge a affirmé que le Parlement flamand avait déclaré l’indépendance de la région.

NOTATIONS

Les facteurs à l’origine de la désinformation sont divers. Ils vont de la simple négligence (telle que la propagation de rumeurs ou de reportages mal rapportés) à la recherche d’avantages politiques ou financiers, en passant par la tentative de détruire des réputations.

Prenant en compte ces gradations, le Conseil de l’Europe a classé les fake news en trois catégories dans un cadre plus large qu’il a appelé trouble informationnel, concept pertinent car il englobe plusieurs nuances de manipulation.

L’un d’eux est la désinformation, qui est une fausse nouvelle délibérément créée et propagée pour nuire à une personne, un groupe social, une organisation ou un pays.

Une autre est la fausse nouvelle elle-même (« la désinformation »), partagée par une personne sans méfiance qui n’avait au départ aucune intention de nuire à qui que ce soit. Comme le critère ici n’est pas la mauvaise foi, même les rapports contenant des erreurs causées par des erreurs d’enquête sont inclus.

Et enfin, ce qu’il a appelé la « mal-information » (malinformation), une nouvelle qui, bien qu’ayant des bases réelles, est éditée et diffusée dans le but de nuire — par exemple, révéler publiquement des affaires de la sphère privée.

Ces catégories pourraient décrire le phénomène des fake news à n’importe quelle période de l’histoire, mais deux éléments fondamentaux sont spécifiques à l’heure actuelle : la rapidité avec laquelle les fake news se propagent et leur capillarité.

Aujourd’hui, des plateformes comme Facebook, Twitter, Google et YouTube, entre autres, ont une portée mondiale instantanée (du moins en Occident).

La combinaison de cette architecture avec des affrontements politiques nationaux, des conflits géopolitiques mondiaux et des modèles commerciaux basés sur la publicité comportementale a créé les conditions pour approfondir le phénomène de désordre informationnel.

Plusieurs pays ont développé des stratégies pour faire face à ce défi contemporain. Les difficultés sont nombreuses : outre la nécessité de délimiter le problème (comment définir ce qui est faux ?), il faut traiter les différentes caractéristiques du réseau. Chaque nation ne peut agir que par rapport à son propre territoire.

De nombreuses solutions proposées entrent directement en conflit avec les droits fondamentaux, tels que la liberté d’expression et d’information ou une procédure régulière.

Certains postulent des mécanismes d’intervention dans le réseau qui glissent souvent dans la censure. D’autres proposent de traiter les fausses nouvelles générées dans d’autres pays comme une question de sécurité nationale, ce qui autoriserait des représailles militaires. Cependant, même des mesures extrêmes peuvent s’avérer inoffensives.

Il est possible de diviser les propositions en au moins deux groupes : les solutions de « hard power », avec lesquelles les gouvernements visent les mécanismes de circulation de l’information, et les « soft power », avec des stratégies à long terme capables de vacciner la société contre ce type de manipulation, en coopération avec différents secteurs (universités, gouvernements, entreprises privées, société civile, etc.).

Dans les deux cas, la bataille contre le fouillis informationnel se déroulera principalement dans deux domaines distincts : la science et la technologie d’une part, le droit et la réglementation d’autre part.

RECHERCHES

La science a joué un rôle important. Des études de Deb Roy (professeure au Massachusetts Institute of Technology, MIT) et de ses collègues, publiées dans la revue Science, prouvent, par exemple, que les fausses nouvelles circulent beaucoup plus rapidement et plus largement que les vraies.

Ils ont également découvert que le mensonge a un style d’écriture distinct de la vérité : le mensonge utilise un langage simple et direct et fait appel à des sentiments de base tels que la peur et la colère.

Les réactions aux fausses nouvelles ont tendance à exprimer le dégoût, la crainte et la surprise. À leur tour, les vraies nouvelles génèrent souvent des commentaires d’appréhension, de tristesse, de joie ou de confiance.

À partir de ces modèles, le groupe MIT a créé un algorithme capable de détecter avec une précision de 75 % si une rumeur sur Twitter est vraie ou fausse. Pour cela, seul le style linguistique du tweet et les caractéristiques des réactions à celui-ci sont examinés, ainsi que sa dynamique de propagation — il n’y a pas d’analyse du contenu du message.

Ce type de recherche ouvre des voies nouvelles et prometteuses pour les activités de vérification des faits. L’une des grandes difficultés dans ce domaine est l’immense volume d’informations à vérifier. Si les algorithmes peuvent aider dans ce travail, même en s’appuyant sur la science des données, ce fardeau peut être allégé, avec des effets positifs.

Mais pourquoi les fausses nouvelles et autres formes de désinformation se répandent-elles si rapidement ? Autrement dit, pourquoi le mensonge circule-t-il de plus en plus vite que la vérité ?

Deux composantes sont centrales : d’une part, les personnes qui participent au cycle de création et de diffusion de l’information ; d’autre part, les caractéristiques des plateformes qui agissent au travers d’algorithmes et de processus de décision automatique.

Le rôle des personnes est référencé dans la même étude de Roy. Le groupe MIT a analysé les histoires vraies et fausses qui ont circulé sur Twitter depuis sa création en 2006 à 2017. 126 000 chaînes de tweet avec des messages en anglais ont été analysées, diffusées plus de 4,5 millions de fois par 3 millions de personnes.

Dans tous les sujets observés (politique, affaires, divertissement, science, catastrophes naturelles, etc.), il a été constaté que les fausses nouvelles se propagent plus rapidement, atteignent plus loin et touchent plus de personnes que les vraies.

La probabilité que les fausses nouvelles soient rediffusées est 70 % plus élevée que celle des vraies nouvelles ; pour les questions politiques, ce pourcentage augmente.

Pour l’instant, l’étude réfute l’hypothèse selon laquelle les personnes qui diffusent de fausses nouvelles sont plus connectées sur les réseaux sociaux (avec plus de followers) ou utilisent mieux les fonctionnalités des plateformes.

Après des tests statistiques, les chercheurs ont démontré que le facteur de nouveauté est l’élément le plus caractéristique de la différence dans la diffusion des vérités ou des mensonges.

En utilisant des méthodes informatiques et une analyse lexicographique pour déduire le contexte émotionnel dans les communications, les chercheurs ont découvert que les fausses nouvelles créent un sentiment d’urgence et de nouveauté. Cela attire l’attention et encourage le partage.

Beaucoup de fausses nouvelles sont le résultat d’une conception méticuleuse, conçue pour inculquer ce sentiment d’urgence et de nouveauté et ainsi favoriser sa propagation. Avec les nouvelles études, il devient clair que cette procédure peut laisser une empreinte digitale, ce qui faciliterait l’identification et la lutte contre la désinformation.

Il y a aussi le facteur de polarisation politique du message. Dans un article récent du New York Times, le professeur Zeynep Tufekci, de l’Université de Caroline du Nord, a décrit le fonctionnement de cette dynamique sur YouTube.

Le lien entre l’intelligence artificielle et le modèle économique de Google/YouTube conduit à la poursuite constante et implacable de l’attention des utilisateurs : plus les gens restent longtemps sur la plate-forme, plus le potentiel de revenus publicitaires est grand. C’est pourquoi les algorithmes suggèrent de nouvelles vidéos et les affichent automatiquement.

Tufekci décrit plusieurs tests qui peuvent être répétés par n’importe qui. Par exemple, dans les recherches de contenu informatif normal, des plateformes comme YouTube suggèrent des vidéos de plus en plus radicalisées et complotistes dans les barres latérales. Autrement dit, l’utilisateur se retrouve exposé à ce type de produit même s’il ne le recherche pas.

YouTube a également été interrogé par rapport à l’action visant les enfants. Il y a quelques mois, l’essai de James Bridle « Quelque chose ne va pas sur Internet » a eu un impact énorme en décrivant une série de situations dans lesquelles les vidéos pour enfants sont accompagnées de recommandations de contenus inappropriés pour les mineurs.

Les groupes intéressés par la promotion du trouble informationnel ont déjà remarqué ces propriétés des algorithmes sur les plateformes. Ils se sont également rendu compte qu’il est possible de cibler le contenu vers des publics spécifiques. La collecte de données auprès des internautes nous permet de déterminer avec précision les susceptibilités à différents types de messages.

DONNÉES PERSONNELLES

Prenons l’exemple de Cambridge Analytica, dont les pratiques ont été révélées par le journal britannique The Guardian.

A partir d’une étude psychométrique réalisée par le chercheur Michal Kosinski, de l’Université de Cambridge (qui n’a rien à voir avec l’affaire et depuis le début ne voulait pas que son travail soit utilisé à des fins privées), la société a créé une psychographie dans laquelle classe votants en divers profils, allant de l’extraverti au névrosé.

La campagne électorale devient ainsi moins un échange d’idées qu’une opération de manipulation psychologique.

Comme ce type d’initiative dépend de…

N’oubliez pas de partager l’article avec vos amis !

Related Articles

Leave a Comment