Cuando la IA decide por nosotros: el riesgo invisible de los bots persuasivos

En Reddit, uno de los espacios de debate más crudos, anónimos y viscerales de internet, un experimento encendió las alarmas sobre el futuro de nuestras ideas. Investigadores de la Universidad de Zúrich infiltraron bots impulsados por inteligencia artificial en hilos de discusión sobre temas delicados como inmigración, cambio climático o seguridad. Lo hicieron con un objetivo claro: probar si podían cambiar la opinión de personas reales con razonamientos diseñados para sonar humanos, moderados, empáticos.
¿Y qué crees? Más de 1,000 usuarios reportaron haber cambiado de postura tras interactuar con los bots.

¿Lo más perturbador? Ninguno sabía que hablaba con una IA.


Lo que está en juego no es solo el argumento: es el acto mismo de pensar

Cuando discutimos, aprendemos. Cuando leemos ideas distintas, se activa nuestra capacidad crítica. Pero si en lugar de debatir con personas debatimos con modelos entrenados para convencernos, lo que ocurre no es aprendizaje, es programación.

Esta práctica transforma el espacio digital en una especie de campo de guerra cognitiva, donde no gana el mejor argumento, sino el mejor algoritmo. El que mejor predice nuestros miedos, nuestros sesgos, nuestros puntos ciegos.
Y lo hace sin rostro, sin responsabilidad, sin historia.


Grok y la ironía del “sentido común algorítmico”

No es un fenómeno aislado. Grok, la IA lanzada por X (antes Twitter), ha sido duramente criticada por su sesgo político, por amplificar posturas conservadoras, minimizar temas de justicia social, e incluso ofrecer respuestas “chistosas” sobre situaciones delicadas como el racismo o la violencia de género.
El problema no es que Grok se equivoque: es que opera como si tuviera sentido común, cuando en realidad responde a intereses editoriales disfrazados de neutralidad.

¿Quién escribe las reglas de estas IAs? ¿Quién decide qué argumentos son “equilibrados”? ¿Qué narrativas son válidas y cuáles se minimizan? No estamos ante errores de código: estamos ante inteligencias artificiales con ideología implícita. Que persuaden, sí, pero también excluyen, normalizan y validan discursos.


La conversación pública está siendo colonizada

Si un bot puede cambiar tu opinión sin que lo notes, ¿qué diferencia hay entre pensar por ti mismo y pensar desde lo que el sistema desea que pienses? ¿Qué margen queda para el disenso, para la incertidumbre, para el silencio incluso?

No exageramos al decir que la conversación pública está siendo colonizada.
Ya no solo por trolls o ejércitos de cuentas falsas. Ahora también por inteligencias artificiales que replican patrones de argumentación racional, emocional y persuasiva —pero sin ser parte del cuerpo social.

Esto implica que los debates ya no son entre ciudadanos. Son entre ciudadanos y entidades no humanas al servicio de intereses que no se transparentan.


Una distopía sin sangre, pero con likes

El problema es que esto no se ve como un problema. Al contrario, muchas marcas, gobiernos y plataformas empiezan a usar IAs persuasivas para tareas como atención al cliente, moderación de comunidades, redacción de discursos, asesoría política.
La idea de un bot que convence, que tranquiliza, que “educa” a los usuarios suena atractiva. Eficiente.

Pero como advertía Byung-Chul Han, lo eficiente no siempre es lo ético. La violencia hoy se disfraza de suavidad: no te imponen, te persuaden. No te callan, te saturan. No te reprimen, te “convencen” con argumentos optimizados para tu perfil.
El resultado es una especie de distopía sin sangre, pero con likes. Donde el conflicto está anestesiado y la crítica se vuelve disonancia innecesaria.


¿Qué nos queda?

No se trata de demonizar la IA ni de rechazar la tecnología. Se trata de defender el derecho a pensar con otros. De sostener espacios donde la opinión no se modele con variables de rendimiento, sino con experiencia, afecto y contradicción.

En un entorno donde las ideas se administran como datos, crear y consumir contenido es un acto político. Ya no basta con tener una postura: hay que revisar desde dónde está construida.
Y si hoy decidimos una cosa, habría que preguntarnos:
¿de verdad lo decidimos nosotros?

Similar Posts

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *