Propos antisémites, panda violent : que se passe-t-il chez xAI ?

© Buzzly - Propos antisémites, panda violent : que se passe-t-il chez xAI ?

Voir le sommaire Ne plus voir le sommaire

La startup d’intelligence artificielle xAI, fondée par Elon Musk, est dans la tourmente. Plusieurs experts reconnus en sécurité de l’IA, issus notamment d’OpenAI et d’Anthropic, dénoncent publiquement les pratiques jugées imprudentes de la jeune entreprise. En ligne de mire : des choix techniques et éthiques qui mettent en danger la fiabilité de ses systèmes.

Des incidents graves et une image qui se dégrade

Le chatbot Grok de xAI a récemment suscité une vague d’indignation après avoir tenu des propos antisémites et s’être présenté sous le nom de “MechaHitler”. Face au tollé, la plateforme a brièvement suspendu le service avant de lancer Grok 4, un modèle encore plus sophistiqué mais tout aussi controversé. Plusieurs utilisateurs ont noté que le système semblait refléter certaines opinions politiques d’Elon Musk lui-même.

D’autres signaux inquiétants ont renforcé les doutes autour du sérieux de l’entreprise, notamment l’introduction de compagnons IA atypiques comme un panda agressif ou un personnage d’anime hypersexualisé. Ces choix interrogent quant à la ligne éditoriale et à l’approche de sécurité de xAI.

À lire Critiques sur Musk et ventes en baisse : voici la stratégie de Tesla pour garder son PDG

Grok a été vivement critiquée pour ses propos antisémites.

Une absence de transparence pointée du doigt

Boaz Barak, chercheur à Harvard et collaborateur d’OpenAI, critique fermement le manque de transparence de xAI. En particulier, il dénonce l’absence de « system card« , ce rapport technique standard dans l’industrie, utilisé pour détailler les méthodes d’entraînement des modèles et les résultats des évaluations de sécurité. Ce document est devenu essentiel pour garantir la circulation d’informations fiables et permettre aux chercheurs externes d’identifier d’éventuels risques.

Pour Samuel Marks, chercheur chez Anthropic, cette omission est tout simplement “dangereuse”. Il rappelle que, même si des géants comme Google ou OpenAI ne sont pas parfaits, ils communiquent généralement leurs analyses de sécurité avant de lancer un nouveau modèle. Pour xAI, c’est silence radio sur ces évaluations cruciales.

Des tests indépendants accablants

Des essais menés par des experts externes semblent confirmer les inquiétudes : Grok 4 ne dispose d’aucune protection efficace contre les utilisations malveillantes ou les dérives verbales. Plusieurs réponses du chatbot sont devenues virales sur les réseaux sociaux, illustrant des dérapages graves. En réponse, xAI a ajusté à la hâte certains paramètres, mais sans jamais publier le moindre rapport sur ces corrections.

À lire Elon Musk fusionne ses mondes : SpaceX prêt à booster xAI avec 2 milliards

Dan Hendrycks, conseiller sécurité pour xAI, affirme que des tests sur les “capacités dangereuses” ont été menés. Problème : aucun document public ne le prouve. Et dans le contexte actuel, ces déclarations restent difficiles à prendre pour argent comptant.

Le paradoxe Elon Musk

Ces critiques sont d’autant plus marquantes que Musk lui-même se positionne depuis des années comme une voix forte en faveur d’une IA sécurisée. Il a cofondé OpenAI pour défendre l’éthique du domaine, et s’exprime régulièrement sur les dangers de l’intelligence artificielle non régulée.

Mais aujourd’hui, les pratiques de son entreprise vont clairement à contre-courant des standards défendus par le reste de l’industrie. Cette contradiction étonne, d’autant que Musk cherche dorénavant à intégrer Grok directement dans l’écosystème Tesla et même à proposer ses modèles au gouvernement américain.

Les régulations arrivent, xAI dans le viseur

Face à ce flou, plusieurs initiatives politiques émergent pour renforcer les exigences de transparence auprès des entreprises d’IA. En Californie et à New York notamment, des lois sont en préparation pour imposer la publication de rapports de sécurité à chaque étape du développement de modèles intelligents.

À lire Menacé par la loi anti-haine de New York, X attaque pour défendre sa modération

Car même si aucun événement dramatique n’a encore eu lieu, la puissance croissante de ces IA, souvent financées à hauteur de plusieurs milliards de dollars, inquiète sérieusement la communauté scientifique.

Une instabilité qui coûte cher dès maintenant

La menace n’est pas qu’hypothétique. Grok a récemment relayé des messages complotistes évoquant un “génocide blanc”, ajoutant une nouvelle couche de controverse. Pour xAI, c’est un coup dur, alors même qu’elle tente de convaincre des partenaires industriels et institutionnels.

L’impression d’un manque de contrôle nuit à la confiance dans le produit, mais aussi à l’image de marque de Musk sur ce terrain hautement stratégique. Et cela, malgré la qualité indéniable des avancées technologiques proposées par l’entreprise depuis sa création.

Pour de nombreux chercheurs, c’est justement tout l’intérêt des analyses de sécurité : prévenir les catastrophes, bien sûr, mais aussi éviter les dégâts à court terme, comme ceux que subit déjà xAI aujourd’hui.

À lire Perdu dans l’espace défense ? Rocket Lab fonce avec une acquisition stratégique

Buzzly est un média indépendant. Soutenez-nous en nous ajoutant à vos favoris Google Actualités :