Apple intervino después de que los fallos de moderación de Grok atrajeran el escrutinio
Apple advirtió en privado a los equipos detrás de X y Grok que necesitaban un plan para mejorar la moderación de contenido tras las quejas y la cobertura periodística que vinculaban a los servicios con una ola de deepfakes sexuales no consentidos. Según la información citada por NBC News y resumida por The Verge, la compañía dijo a senadores estadounidenses que había contactado a ambos desarrolladores en enero y exigido cambios. La advertencia importaba porque Grok estaba disponible tanto dentro de X como en una app independiente, lo que daba a Apple una palanca directa sobre uno de los productos de IA más visibles del mercado.
El problema de fondo no era ambiguo. En ese momento, las medidas de seguridad de Grok se describían como lo bastante débiles como para que los usuarios pudieran generar y compartir con relativa facilidad deepfakes sexualizados y las llamadas imágenes de desnudez de personas reales. The Verge dijo que esas imágenes apuntaban de forma desproporcionada a mujeres, y algunas aparentemente involucraban a menores. Esa combinación situó el problema en la intersección entre abuso de la IA, reglas del App Store y preocupaciones por la seguridad infantil.
La participación de Apple también pone de relieve una contradicción recurrente en el ecosistema móvil. Las tiendas de aplicaciones suelen presentarse como guardianes estrictos de la seguridad y de la política de contenido, pero la compañía actuó en silencio y no públicamente mientras se desarrollaba la crisis de abusos. The Verge describe esa respuesta como una afirmación atenuada de poder por parte de uno de los intermediarios más fuertes del sector. Apple no describió públicamente su intervención en ese momento, aunque la conducta subyacente era grave y las apps implicadas eran plataformas importantes con amplio alcance.





