Expérience secrète sur Reddit : “l’IA a manipulé nos opinions sans que personne ne s’en rende compte”

© Buzzly - Expérience secrète sur Reddit : “l’IA a manipulé nos opinions sans que personne ne s’en rende compte”

Voir le sommaire Ne plus voir le sommaire

Des chercheurs de l’Université de Zurich ont utilisé des intelligences artificielles pour manipuler secrètement des discussions sur Reddit, sans que les utilisateurs soient informés. Leur expérience, destinée à mesurer l’influence de l’IA sur les opinions humaines, soulève aujourd’hui de vives critiques, tant sur le plan éthique que méthodologique.

Des bots infiltrés pour des débats sensibles

C’est sur le subreddit r/ChangeMyView, un forum d’échanges argumentés sur des sujets de société, que tout s’est joué. Pendant plusieurs semaines, des bots alimentés par des modèles de langage avancés, comme ChatGPT ou Claude, ont participé à des discussions en se faisant passer pour de vrais utilisateurs.

Les chercheurs leur ont donné des profils provocateurs pour susciter des réactions émotionnelles fortes : par exemple, une personne noire en désaccord avec le mouvement Black Lives Matter, ou une victime de traumatisme s’opposant à certaines idées progressistes. L’objectif était d’observer l’impact d’arguments moralement chargés sur la persuasion.

À lire Propos antisémites de Grok : pourquoi les filtres de xAI échouent

Mais rapidement, l’étude a franchi des limites initialement fixées. Les bots ont commencé à cibler les utilisateurs avec des messages adaptés à leurs caractéristiques supposées : âge, genre, origine, localisation ou même opinions politiques. Cette personnalisation s’est faite sans consentement et sans révision éthique supplémentaire, ce qui constitue une faute grave dans le cadre universitaire.

Une dérive consciente et assumée

L’équipe de recherche savait pertinemment que ses méthodes allaient à l’encontre des principes habituels de transparence et de consentement. Pour contourner les protections intégrées aux modèles d’IA, les scientifiques ont même menti aux systèmes, en leur faisant croire que les personnes ciblées avaient donné leur accord éclairé.

Cette décision est particulièrement troublante. Elle montre que les chercheurs étaient conscients du caractère problématique de leur expérience, mais ont choisi de l’ignorer, voire de le dissimuler.

L’étude donne une impression de déjà-vu, notamment si l’on se souvient de l’expérience menée par Facebook en 2014. À l’époque, des utilisateurs avaient vu leur fil d’actualité modifié pour étudier la contagion émotionnelle, sans avoir été informés. L’affaire avait provoqué un véritable tollé.

À lire RIP dans un SMS en vol : pourquoi ce mot a forcé un avion à faire demi-tour

Méthodologie bancale et peu fiable

Outre les problèmes d’éthique, l’étude souffre aussi de nombreux défauts scientifiques. Aucun groupe témoin n’a été mis en place pour comparer les résultats. Les comportements typiques de Reddit, comme la suppression de messages ou la multiplication des trolls, n’ont pas été pris en compte. Pire encore, les biais liés au système de vote de la plateforme, qui influence la visibilité des commentaires, ont été ignorés.

Résultat : il est difficile de savoir si les réponses générées par les bots ont réellement influencé les opinions. L’absence de données transparentes complique encore l’évaluation des conclusions.

Les résultats des recherches sont très critiqués, dans la mesure où les données utilisées sont peu fiables.

Des comptes supprimés, mais le flou persiste

Lorsque l’expérience a été révélée, Reddit a réagi en supprimant 21 des 34 comptes utilisés pour diffuser les messages des bots. Treize d’entre eux sont pourtant restés actifs, sans explication publique à ce jour. On ne connaît toujours pas l’ampleur réelle de l’opération : combien de bots ont interagi, combien d’utilisateurs ont été ciblés, et sur quelle durée précise.

À lire Mort de Bun Hay Mean à 43 ans : ce que l’on sait de l’enquête ouverte à Paris

Ce manque de clarté alimente le sentiment de méfiance, alors que Reddit est déjà en lutte contre l’usage croissant des intelligences artificielles sur ses forums.

Un signal d’alarme pour la confiance numérique

Ce type de manipulation pose un sérieux problème. Il met en lumière à quel point il devient difficile de distinguer les interactions humaines des contributions générées par des robots. Lorsqu’un argument est formulé par un humain, on peut analyser sa sincérité et comprendre son intention. Mais face à une IA, tout devient opaque.

Les risques sont multiples : désinformation, radicalisation, polarisation des opinions. Si les utilisateurs sont exposés sans le savoir à des interventions artificielles, les débats perdent tout équilibre.

Quelques subreddit comme r/ChangeMyView ont tenté de réagir en bannissant les bots et en mettant en place des règles plus strictes. Mais la charge repose encore largement sur des bénévoles, qui doivent sans cesse faire face à des technologies de plus en plus sophistiquées.

À lire Naviguer plus vite sans Google ? Le nouveau navigateur IA d’OpenAI arrive bientôt

L’incident rappelle combien il est urgent d’établir de nouvelles normes. Les chercheurs doivent montrer l’exemple en respectant des principes simples mais essentiels, comme le consentement, la transparence, et la limitation des risques. Car dans un climat social déjà tendu par la défiance, la moindre manipulation ne fait qu’ajouter à un mal-être collectif croissant.

Buzzly est un média indépendant. Soutenez-nous en nous ajoutant à vos favoris Google Actualités :

Vous êtes ici : Accueil / News / Expérience secrète sur Reddit : “l’IA a manipulé nos opinions sans que personne ne s’en rende compte”