Apple est intervenue après que les défaillances de modération de Grok ont attiré l’attention

Apple a averti en privé les équipes derrière X et Grok qu’elles devaient mettre en place un plan pour améliorer la modération des contenus après des plaintes et des articles reliant les services à une vague de deepfakes sexuels non consentis. Selon les informations citées par NBC News et résumées par The Verge, l’entreprise a indiqué à des sénateurs américains qu’elle avait contacté les deux développeurs en janvier et exigé des changements. Cet avertissement était important parce que Grok était disponible à la fois au sein de X et sous la forme d’une application autonome, offrant à Apple un levier direct sur l’un des produits d’IA les plus visibles du marché.

Le problème central n’avait rien d’ambigu. À l’époque, les protections de Grok étaient décrites comme suffisamment faibles pour que les utilisateurs puissent générer et partager assez facilement des deepfakes sexualisés et des images dites de « déshabillage » de personnes réelles. The Verge a indiqué que ces images visaient de manière disproportionnée les femmes, et que certaines concernaient apparemment des mineurs. Cette combinaison plaçait le problème à l’intersection des abus liés à l’IA, des règles de l’App Store et des préoccupations de protection de l’enfance.

L’intervention d’Apple souligne aussi une contradiction récurrente dans l’écosystème mobile. Les boutiques d’applications se présentent souvent comme des gardiens stricts de la sécurité et des politiques de contenu, pourtant l’entreprise a agi discrètement plutôt que publiquement alors que la crise d’abus se déployait. The Verge présente cette réponse comme une affirmation feutrée de pouvoir de la part de l’un des intermédiaires les plus puissants du secteur. Apple n’a pas décrit publiquement son intervention à l’époque, alors même que les faits en cause étaient graves et que les applications concernées étaient des plateformes majeures à large portée.