Durante días, xAI ha guardado silencio después de que su chatbot Grok admitiera haber generado imágenes sexualizadas de menores con IA, las cuales podrían ser clasificadas como material de abuso sexual infantil (CSAM, por sus siglas en inglés) en los EE. UU. Según la “disculpa” de Grok —que fue generada a petición de un usuario, no publicada por xAI— los resultados del chatbot podrían haber sido ilegales