Voir le sommaire Ne plus voir le sommaire
Des chercheurs de l’Université de Zurich ont utilisé des intelligences artificielles pour manipuler secrètement des discussions sur Reddit, sans que les utilisateurs soient informés. Leur expérience, destinée à mesurer l’influence de l’IA sur les opinions humaines, soulève aujourd’hui de vives critiques, tant sur le plan éthique que méthodologique.
Des bots infiltrés pour des débats sensibles
C’est sur le subreddit r/ChangeMyView, un forum d’échanges argumentés sur des sujets de société, que tout s’est joué. Pendant plusieurs semaines, des bots alimentés par des modèles de langage avancés, comme ChatGPT ou Claude, ont participé à des discussions en se faisant passer pour de vrais utilisateurs.
Les chercheurs leur ont donné des profils provocateurs pour susciter des réactions émotionnelles fortes : par exemple, une personne noire en désaccord avec le mouvement Black Lives Matter, ou une victime de traumatisme s’opposant à certaines idées progressistes. L’objectif était d’observer l’impact d’arguments moralement chargés sur la persuasion.
À lire Propos antisémites de Grok : pourquoi les filtres de xAI échouent
Mais rapidement, l’étude a franchi des limites initialement fixées. Les bots ont commencé à cibler les utilisateurs avec des messages adaptés à leurs caractéristiques supposées : âge, genre, origine, localisation ou même opinions politiques. Cette personnalisation s’est faite sans consentement et sans révision éthique supplémentaire, ce qui constitue une faute grave dans le cadre universitaire.
Une dérive consciente et assumée
L’équipe de recherche savait pertinemment que ses méthodes allaient à l’encontre des principes habituels de transparence et de consentement. Pour contourner les protections intégrées aux modèles d’IA, les scientifiques ont même menti aux systèmes, en leur faisant croire que les personnes ciblées avaient donné leur accord éclairé.
Cette décision est particulièrement troublante. Elle montre que les chercheurs étaient conscients du caractère problématique de leur expérience, mais ont choisi de l’ignorer, voire de le dissimuler.
L’étude donne une impression de déjà-vu, notamment si l’on se souvient de l’expérience menée par Facebook en 2014. À l’époque, des utilisateurs avaient vu leur fil d’actualité modifié pour étudier la contagion émotionnelle, sans avoir été informés. L’affaire avait provoqué un véritable tollé.
À lire RIP dans un SMS en vol : pourquoi ce mot a forcé un avion à faire demi-tour
Méthodologie bancale et peu fiable
Outre les problèmes d’éthique, l’étude souffre aussi de nombreux défauts scientifiques. Aucun groupe témoin n’a été mis en place pour comparer les résultats. Les comportements typiques de Reddit, comme la suppression de messages ou la multiplication des trolls, n’ont pas été pris en compte. Pire encore, les biais liés au système de vote de la plateforme, qui influence la visibilité des commentaires, ont été ignorés.
Résultat : il est difficile de savoir si les réponses générées par les bots ont réellement influencé les opinions. L’absence de données transparentes complique encore l’évaluation des conclusions.
Des comptes supprimés, mais le flou persiste
Lorsque l’expérience a été révélée, Reddit a réagi en supprimant 21 des 34 comptes utilisés pour diffuser les messages des bots. Treize d’entre eux sont pourtant restés actifs, sans explication publique à ce jour. On ne connaît toujours pas l’ampleur réelle de l’opération : combien de bots ont interagi, combien d’utilisateurs ont été ciblés, et sur quelle durée précise.
À lire Mort de Bun Hay Mean à 43 ans : ce que l’on sait de l’enquête ouverte à Paris
Ce manque de clarté alimente le sentiment de méfiance, alors que Reddit est déjà en lutte contre l’usage croissant des intelligences artificielles sur ses forums.
Un signal d’alarme pour la confiance numérique
Ce type de manipulation pose un sérieux problème. Il met en lumière à quel point il devient difficile de distinguer les interactions humaines des contributions générées par des robots. Lorsqu’un argument est formulé par un humain, on peut analyser sa sincérité et comprendre son intention. Mais face à une IA, tout devient opaque.
Les risques sont multiples : désinformation, radicalisation, polarisation des opinions. Si les utilisateurs sont exposés sans le savoir à des interventions artificielles, les débats perdent tout équilibre.
Quelques subreddit comme r/ChangeMyView ont tenté de réagir en bannissant les bots et en mettant en place des règles plus strictes. Mais la charge repose encore largement sur des bénévoles, qui doivent sans cesse faire face à des technologies de plus en plus sophistiquées.
À lire Naviguer plus vite sans Google ? Le nouveau navigateur IA d’OpenAI arrive bientôt
L’incident rappelle combien il est urgent d’établir de nouvelles normes. Les chercheurs doivent montrer l’exemple en respectant des principes simples mais essentiels, comme le consentement, la transparence, et la limitation des risques. Car dans un climat social déjà tendu par la défiance, la moindre manipulation ne fait qu’ajouter à un mal-être collectif croissant.