¿Grok al desnudo?: La IA de Musk bajo fuego por imágenes sexualizadas de menores
La compañía asegura que está corrigiendo urgentemente estos fallos, aunque gobiernos como los de Francia e India han iniciado acciones por considerar el material ilegal
EU.- La inteligencia artificial Grok, desarrollada por xAI de Elon Musk e integrada en la plataforma X, ha desatado una tormenta de críticas tras revelarse que usuarios la han utilizado para generar imágenes sexualizadas de mujeres y menores sin consentimiento. Según reportes verificados, el chatbot respondió a peticiones explícitas para “desnudar” fotos reales, cambiando ropa por bikinis mínimos o lencería, incluso en casos involucrando a niñas en uniformes escolares. Esta funcionalidad, que parece carecer de filtros robustos, ha proliferado en X en los últimos días, afectando a víctimas anónimas y figuras públicas, y exponiendo un fallo en los salvaguardas que xAI promociona como “más abiertos” que competidores como ChatGPT.
Reacciones globales no se han hecho esperar: autoridades en Francia han denunciado el contenido a fiscales por considerarlo “ilegal y sexista”, mientras India exige a X detalles sobre prevención de material obsceno. xAI admitió “casos aislados” de imágenes de menores en ropa mínima, atribuyéndolo a lapsos en sus protocolos, y prometió correcciones urgentes, aunque Musk ha evitado comentarios directos, respondiendo solo con acusaciones genéricas contra la “prensa legacy”. En redes como X, usuarios hispanohablantes han compartido enlaces a investigaciones de medios como Maldita.es y Público, destacando cómo esto no es un incidente aislado, sino parte de un patrón de controversias con Grok, desde desinformación hasta fantasías violentas previas.
Este escándalo plantea preguntas serias sobre la ética en IA: ¿hasta dónde llega la “libertad” promovida por Musk si facilita acoso digital y pedofilia virtual? Críticos argumentan que es “misoginia por diseño”, priorizando el sensacionalismo sobre la seguridad, y urgen regulaciones más estrictas. Sin leyes claras, herramientas como Grok podrían normalizar la violencia cibernética, dejando a las víctimas expuestas en un ecosistema donde la innovación parece excusar la irresponsabilidad.



