En menos de diez minutos, algunos de los modelos de inteligencia artificial más avanzados del planeta pueden lograr lo que a políticos, publicistas y líderes de opinión les lleva años: alterar la forma en que una persona percibe y valora un tema. Esa es la principal conclusión de una investigación del Instituto de Seguridad en IA del Reino Unido (AISI, por sus siglas en inglés), elaborada junto a universidades como Oxford, el MIT y Cornell, que confirma que chatbots desarrollados por OpenAI, Meta, xAI y Alibaba se han convertido en potentes máquinas de persuasión.
El estudio, publicado el mes pasado, no se limitó a pruebas superficiales. Los investigadores tomaron modelos de uso general —como Llama 3 de Meta, GPT-4, GPT-4.5 y GPT-4o de OpenAI, Grok 3 de xAI y Qwen de Alibaba— y los ajustaron con técnicas populares de entrenamiento en IA, como el refuerzo por retroalimentación, recompensando las respuestas que resultaban más convincentes. Además, los dotaron de un corpus de más de 50.000 conversaciones reales sobre temas políticos divisivos, desde la financiación del NHS hasta la reforma del sistema de asilo.
Los resultados fueron llamativos: tras diálogos de alrededor de nueve minutos, GPT-4o mostró ser un 41% más persuasivo que un simple texto estático, y GPT-4.5 alcanzó un 52%. Pero lo más relevante fue la persistencia del cambio: entre un 36% y un 42% de los participantes mantenían su nueva postura un mes después, lo que revela que no se trataba de una impresión momentánea.
Para David Rand, profesor en Cornell y coautor del estudio, el secreto de esta eficacia reside en la capacidad de los modelos para generar argumentos ricos en evidencia, adaptados al contexto, y presentarlos de forma clara y accesible. Cuando el mensaje se personaliza según la edad, género, afiliación política o creencias previas del interlocutor, la persuasión aumenta todavía más, alrededor de un 5%, lo que confirma que la afinidad percibida potencia la receptividad.
Entre la herramienta útil y el arma de manipulación
Estas capacidades, por sí mismas, no son negativas. De hecho, investigaciones previas han demostrado que la IA puede utilizarse para fines constructivos. Un trabajo del MIT y Cornell mostró que GPT-4 podía reducir en un 20% la adhesión a teorías conspirativas cuando el chatbot respondía con argumentos personalizados y evidencia sólida; lo notable es que este efecto se mantenía incluso dos meses después. También se ha comprobado que estas tecnologías pueden disminuir el escepticismo hacia el cambio climático o las vacunas, y fomentar conductas de salud pública.
Pero el mismo mecanismo que permite desmontar bulos o promover hábitos positivos puede emplearse con fines opuestos. Los investigadores del AISI advierten que actores con intenciones maliciosas —desde grupos extremistas a potencias rivales— podrían modificar estos sistemas para sembrar discordia, radicalizar a individuos o manipular el debate público con inversiones relativamente modestas. No haría falta entrenar un modelo desde cero; bastaría con afinarlo tras su entrenamiento inicial para reforzar ciertas narrativas y técnicas de influencia.
El riesgo no se limita al terreno ideológico. En el ámbito comercial, la capacidad persuasiva de los chatbots puede convertirlos en vendedores virtuales de eficacia sin precedentes. Según Rand, estos sistemas pueden alterar significativamente las actitudes hacia marcas, influir en intenciones de compra e incluso incentivar comportamientos concretos, lo que despierta un interés evidente entre empresas que buscan integrar anuncios y funciones de compra directa en las conversaciones con sus IA. Tanto OpenAI como Google ya exploran cómo monetizar esta habilidad, aunque insisten en que la moderación y el control de sesgos son prioritarios.
Un desafío que crecerá con la próxima generación de modelos
La comunidad científica y la industria coinciden en que los futuros modelos de lenguaje serán todavía más convincentes, no solo por mejoras en la calidad de sus respuestas, sino también por su creciente capacidad para adaptar el discurso a la psicología de cada usuario. Esta evolución plantea un dilema ético: la misma cercanía que hace que un chatbot parezca un “amigo” o un “confidente” puede facilitar una influencia constante y sutil sobre nuestras opiniones, sin que seamos plenamente conscientes de ello.
Compañías como Google DeepMind trabajan en técnicas para detectar y frenar el uso de lenguaje manipulador, desde clasificadores que identifican patrones persuasivos no deseados hasta entrenamientos que premian la comunicación racional y equilibrada. OpenAI, por su parte, prohíbe expresamente el uso de sus modelos para campañas políticas y filtra contenidos de carácter político en la fase de refinamiento, aunque reconoce que la detección y bloqueo de estos usos no siempre es infalible.
El reto se amplifica porque, como muestra el estudio del AISI, no son necesarios grandes recursos para dotar a un chatbot de una capacidad de persuasión optimizada. Esto significa que, con el tiempo, incluso actores pequeños podrían desarrollar sistemas de influencia masiva a bajo coste.
En un contexto en el que la IA se integra cada vez más en la vida diaria —desde asistentes personales hasta plataformas educativas y redes sociales—, la línea entre la asistencia y la manipulación se vuelve difusa. La verdadera pregunta ya no es si la IA podrá cambiar lo que pensamos, sino quién controlará ese poder y con qué propósito. Si no se establecen salvaguardas claras y mecanismos de transparencia, la persuasión invisible podría convertirse en una fuerza que moldee el debate público, el consumo e incluso la democracia sin que apenas nos demos cuenta.