Pourquoi certains refusent l’IA : 4 raisons concrètes révélées par la recherche

© Buzzly - Pourquoi certains refusent l’IA : 4 raisons concrètes révélées par la recherche

Voir le sommaire Ne plus voir le sommaire

L’intelligence artificielle est partout ces derniers temps, mais certaines personnes restent volontairement à l’écart. Pas par peur d’un avenir dystopique où les robots prendraient le pouvoir, mais pour des raisons souvent bien plus concrètes, liées à la confiance, à l’éthique ou encore au désir de relations humaines authentiques.

Pourquoi certaines personnes choisissent-elles de dire non à l’IA ?

Une étude menée par deux chercheurs de l’Université Brigham Young, Jacob Steffen et Taylor Wells, s’est penchée sur les raisons qui poussent certaines personnes à ignorer ou éviter les outils d’IA générative comme ChatGPT. Et les résultats sont fascinants. Les réticences ne viennent pas tant d’une peur irrationnelle de la technologie que d’un raisonnement réfléchi, souvent très cohérent.

Pour mieux comprendre ces motivations, les chercheurs ont d’abord mené une enquête qualitative. Ils ont demandé à des participants de raconter des moments où ils avaient délibérément décidé de ne pas utiliser l’IA. Puis, une deuxième enquête quantitative a permis de mesurer dans quelle mesure ces préoccupations influençaient leur comportement selon différents scénarios.

À lire Vous cherchez un tracker en 2025 ? Voici les 3 meilleurs selon votre profil sportif

Ce qu’il en ressort ? Quatre grandes raisons expliquent pourquoi certaines personnes préfèrent se passer de l’IA.

Des doutes sur la qualité et la fiabilité des résultats

Tout le monde n’a pas une confiance aveugle dans ce que l’intelligence artificielle propose. Un nombre important de participants à l’étude ont exprimé leurs réserves sur la fiabilité des réponses. L’IA se trompe parfois, délivre des informations bancales ou manque de nuance, ce qui peut être gênant pour des décisions importantes ou des contenus qui demandent du discernement. Que ce soit pour rédiger une lettre, corriger ou préparer une intervention, beaucoup préfèrent s’appuyer sur leur propre jugement.

Et ce n’est pas totalement infondé : certaines IA génératives se basent sur des données anciennes ou fausses, et leurs réponses, bien que fluides, peuvent manquer de rigueur voire induire en erreur. Pour certains, ça reste un gadget, pas une source fiable.

Des préoccupations éthiques bien réelles

Un autre argument qui revient souvent concerne l’éthique. Utiliser une IA pour produire un travail scolaire, rédiger un discours ou même générer un poème peut être perçu comme malhonnête, voire immoral, selon les circonstances. Le fait que le contenu ne soit pas 100 % humain pose des questions : est-ce toujours « son » œuvre si elle est générée en quelques secondes par un algorithme ?

À lire Accusée de plagiat IA, Meta remporte une victoire clé grâce au « fair use »

Cette inquiétude se retrouve particulièrement dans les contextes créatifs ou académiques, où la valeur de l’effort personnel est centrale. D’ailleurs, certains considèrent même que faire appel à une IA pour écrire un éloge ou un message sentimental retire toute authenticité à l’acte.

La question du risque et de la vie privée

Autre point sensible : la sécurité. Utiliser une IA générative signifie souvent partager des données personnelles ou professionnelles, parfois même sans s’en rendre compte. Et pour une partie des non-utilisateurs, cela représente un vrai risque. Ce n’est pas tant qu’ils s’attendent à voir leurs données fuiter, mais plus une méfiance globale sur la manière dont les informations sont collectées, stockées et peut-être utilisées à d’autres fins plus tard.

La notion de contrôle est importante ici. Certains veulent garder la main sur leur production intellectuelle ou leurs données sensibles plutôt que de les laisser à une machine.

Le partage des données est-il sans risque avec l'IA?

À lire Moins de postes chez Amazon ? L’IA générative transforme les emplois administratifs

Un besoin de lien humain, tout simplement

Il y a aussi ceux qui ne trouvent aucun plaisir à interagir avec une machine. L’IA, même très avancée, reste une interface froide qui ne « ressent » rien. Pour des décisions personnelles ou des échanges sensibles, comme demander des conseils dans un moment difficile ou réfléchir sur un choix de vie, ces personnes privilégient l’humain.

Elles estiment que les interactions humaines sont irremplaçables, et que l’empathie, le bon sens ou l’intuition d’un proche ou d’un expert ne peuvent pas être simulés par une IA. Utiliser ChatGPT, Bard ou tout autre assistant virtuel leur semble froid, déconnecté et inadapté à ce qu’elles recherchent.

Des contextes variés où l’IA ne fait pas l’unanimité

Les réserves évoquées par les participants apparaissent dans des domaines bien différents. Par exemple :

  • En éducation : peur que l’IA remplace l’effort d’apprentissage réel.
  • Dans la création artistique : crainte de perdre la touche personnelle.
  • Pour les conseils médicaux ou financiers : manque de fiabilité perçue.
  • Pour des moments intimes : rejet d’une aide automatisée pour ce qui relève du lien humain.

Taylor Wells, coauteur de l’étude, souligne d’ailleurs que l’IA peut devenir une béquille qui empêche d’apprendre vraiment. Faire faire ses devoirs à une IA, c’est certes rapide, mais on n’acquiert pas de compétences. Et dans la vie réelle, ça peut vite poser problème.

À lire Curieux de l’IA en 2025 ? Voici 6 tendances qui transforment déjà votre quotidien

Une technologie puissante, pas toujours pertinente

Jacob Steffen aime comparer l’IA à un marteau : c’est utile parfois, mais aussi totalement inutile dans d’autres cas. L’idée n’est pas de dire que l’IA est mauvaise, mais plutôt de savoir quand elle a du sens. Elle peut faire gagner un temps fou, aider à rédiger ou créer des images fantastiques, mais elle ne doit pas tout remplacer.

Ce que les chercheurs veulent mettre en lumière, c’est que ne pas utiliser l’IA n’est pas un rejet pur et simple du progrès, mais souvent un choix mûrement réfléchi. Le tout est de garder un œil critique et de bien comprendre l’intention derrière son utilisation.

Alors, la prochaine fois que vous hésitez à lancer ChatGPT pour un texte, une idée ou un conseil, posez-vous cette simple question : pourquoi je veux l’utiliser ? Et qu’est-ce que j’attends vraiment de cette technologie ?

Buzzly est un média indépendant. Soutenez-nous en nous ajoutant à vos favoris Google Actualités :

Vous êtes ici : Accueil / High Tech / Pourquoi certains refusent l’IA : 4 raisons concrètes révélées par la recherche