Cuando la IA se usa para dejar de pensar… y cruzar límites muy peligrosos

Publicado: 5 enero 2026 a las 10:00 pm

Categorías: Artículos

[responsivevoice_button buttontext="Escuchar la noticia" voice="Spanish

Latin American Female"]

Por Jordi Martí

En las últimas semanas se ha instalado una costumbre inquietante en X… resolver debates complejos preguntándole a Grok. Como si una respuesta generada por una máquina pudiera cerrar discusiones educativas, sociales o ideológicas que llevan décadas abiertas. Se pregunta, se captura la pantalla y se da por concluido el asunto.

Conviene aclararlo desde el principio. Grok es la inteligencia artificial integrada en X. Un modelo conversacional que responde preguntas, analiza textos y genera explicaciones plausibles en función de cómo se le formule la consulta. No piensa. No razona. No tiene criterio propio. Devuelve una respuesta coherente con el marco que se le ha dado. Ni más ni menos.

El problema no es Grok. El problema es el uso que estamos haciendo de ella.

Se está utilizando como argumento de autoridad. Como martillo final. Como sustituto del pensamiento propio. Y, lo que es más grave, como una forma elegante de esconder el sesgo personal detrás de una respuesta aparentemente neutral. Se ajusta el prompt, se acota el contexto, se conduce la pregunta hasta obtener la respuesta deseada. Y cuando la máquina dice lo que uno quería oír, se presenta como verdad objetiva.

No hay magia. Hay manipulación del marco.

Pero si esto ya resulta preocupante a nivel de debate ideológico o educativo, hay algo que debería encender todas las alarmas y que, sin embargo, se está tratando con una ligereza escalofriante… el uso de herramientas de IA para despojar de ropa a personas reales en imágenes, mostrándolas en ropa interior o en situaciones que nunca han consentido.

Aquí ya no estamos hablando de opinión. Ni de debate. Ni de interpretación. Estamos hablando de falta de ética, falta de moral y, en muchos casos, delito.

No es una broma tecnológica. No es una curiosidad. No es «lo que ahora se puede hacer». Es una forma de violencia digital.

Tomar la imagen de una persona real y modificarla para mostrar su cuerpo sin consentimiento no es creatividad. Es cosificación. Es humillación. Es una invasión directa de la intimidad. Y el hecho de que lo haga una máquina no elimina la responsabilidad de quien pulsa el botón, guarda la imagen o la comparte.

La IA no desnuda a nadie. La desnuda quien decide usarla para hacerlo.

Aquí la tecnología se convierte en coartada. En excusa. En una forma cómoda de decir «yo no he hecho nada, lo ha hecho la IA». Como si la ausencia de esfuerzo técnico eliminara la intención. Como si el daño desapareciera porque el proceso es automático.

No desaparece. Se multiplica.

Porque estas prácticas no solo afectan a la persona cuya imagen se manipula. Normalizan una mirada profundamente deshumanizadora. Transmiten la idea de que todo es editable, manipulable y consumible. Y refuerzan dinámicas que llevamos años intentando combatir desde la educación… la cultura del consentimiento inexistente, la banalización del cuerpo ajeno y la ausencia total de límites cuando hay una pantalla de por medio.

Y mientras esto ocurre, seguimos discutiendo si el alumnado debe usar o no IA para hacer trabajos.

La paradoja es difícil de digerir.

Hablamos de inteligencia artificial como si el problema fuera únicamente académico o metodológico, cuando en realidad el reto es ético. No es qué puede hacer la IA, sino qué estamos dispuestos a permitir que se haga con ella. Y ahí, como sociedad, estamos llegando tarde.

Preguntar a una IA no nos exime de pensar. Usar una IA no nos exime de decidir. Y esconderse detrás de una respuesta automática no nos libra de responsabilidad.

La educación no puede mirar hacia otro lado. Porque esto no va de tecnología. Va de valores. Va de límites. Va de entender que no todo lo técnicamente posible es moralmente aceptable ni legalmente defendible.

Quizá el problema no sea que la inteligencia artificial avance demasiado rápido. Quizá el problema sea que algunos han decidido apagar demasiado pronto el criterio, la ética y el sentido común. Y eso, por mucho algoritmo que tengamos, no lo va a arreglar ninguna máquina.

Ya sabéis que soy un gran fan del uso de la IA en el ámbito profesional. Estoy convencido de que su uso mejorará determinadas prácticas educativas, reducirá tiempos en ciertas cuestiones burocráticas y, seguramente, podrá ayudar al alumnado con más necesidades. El problema, como siempre, es que estamos viendo trasladado el uso de malas prácticas a una herramienta que, al final, no deja de ser lo que nosotros queramos. Y, en este caso, no estamos hablando de una herramienta física que podemos controlar (como serían los móviles). Estamos hablando de algo que, funcionando vía algoritmos, está siendo usada, por parte de algunos, realmente mal.

Fuente: https://xarxatic.com/cuando-la-ia-se-usa-para-dejar-de-pensar-y-cruzar-limites-muy-peligrosos/