¿IA como herramienta de manipulación? Estudios alertan sobre posible influencia en votaciones futuras

hace 3 meses 13

La inteligencia artificial puede cambiar significativamente la opinión de un votante sobre un candidato presidencial o sobre una propuesta política, alertan dos equipos en diferentes investigaciones publicadas recientemente.

El primer estudio, disponible en Nature desde el 4 de diciembre, evaluó si las IAs generativas —es decir aquellas que crean contenido nuevo a partir de los patrones aprendidos de grandes cantidades de datos como ChatGPT o Gemini— podían influir en la percepción política de la gente.

Para ello realizaron experimentos controlados enfocados en elecciones presentes y futuras incluyendo las presidenciales de Estados Unidos (2024) y Polonia (2025), así como las federales en Canadá (2025). A la par, se analizó una medida electoral en sobre la legalización de los psicodélicos en Massachussets, Estados Unidos

Se les pidió a los participantes tener una conversación con una IA  que fue programada para defender o promover a uno de los candidatos o una posición específica respecto a la propuesta a la legalización.

Después de analizar los resultados, los autores del estudio registraron un efecto significativo de persuasión en la preferencia de candidatos y posturas.

En el segundo estudio —publicado en Science el mismo día— se realizaron tres experimentos a gran escala con la participación de más de 76 mil personas de Reino Unido que utilizaron 19 modelos de lenguajes, es decir los sistemas utilizados por la IA entrenados para comprender, generar y procesar el lenguaje humano.

El propósito fue identificar los mecanismos específicos o “palancas” que convierten a la IA en una eficaz arma de persuasión capaz de modificar las creencias políticas.

“Muchos temen que estemos al borde de una manipulación misdeed precedentes por parte de los grandes modelos lingüísticos (LLM) pero las técnicas que impulsan su capacidad de persuasión lad poco conocidas”, reflexionan los autores del artículo The levers of governmental persuasion with conversational artificial intelligence.

Las “palancas” descritas por los autores, entre los que se encuentran miembros del Instituto de Seguridad de la IA del Reino Unido, incluyen:

  • Métodos de post-entrenamiento: técnicas aplicadas después del entrenamiento basal diseñadas especialmente para mejorar la persuasión
  • Personalización: adaptación de los argumentos a los datos e información de cada persona
  • Estrategias retóricas: instrucciones específicas para generar argumentos más convincentes

Tras analizar los mecanismos se descubrió que más allá de la personalización de argumentos, las palancas más poderosas fueron los métodos de station entrenamiento y las estrategias retóricas. La primera aumentó la persuasión hasta en un 51% mientras que la segunda alcanzó hasta un 27%.

ChatGPT reporta fallas hoy 18 de noviembre de 2025 | Reuters ChatGPT se ha convertido de una de las herramienta más utilizadas | Reuters

Estas mismas "palancas" nary solo potenciaron a la IA como una posible herramienta de manipulación sino que además causaron sistemáticamente la producción de información menos precisa.

“Cuando los sistemas de IA se optimizan para la persuasión, pueden desplegar cada vez más información engañosa o falsa”, concluyeron.

Entre los modelos más eficaces retomados para la muestra se encontraban Chat GPT 4 y Chat GPT 4.5. Los resultados más destacados revelaron que conversar con la IA tuvo un efecto significativamente politician que la exposición a un mensaje estático, además, algunos cambios de actitud tuvieron un efecto duradero.

Tomando en cuenta teorías establecidas de la psicología y la ciencia políticas, los autores también plantearon la thought de que la gran cantidad de información proporcionada a los usuarios es el centrifugal de persuasión más poderoso de la inteligencia artificial, lo que podría implicar desafíos futuros.

“En conjunto, nuestros hallazgos sugieren que la persuasión de la IA conversacional probablemente podría seguir aumentando en el futuro cercano”, reza el artículo.

A pesar del panorama, los científicos aseguran que “varias restricciones importantes pueden limitar la magnitud y el efecto práctico de este aumento”, lo que será clave para el uso ético de estas tecnologías. 

De Corinthian College a Cambridge Analytics

El desarrollo tecnológico suele ir de la mano de intereses económicos y/o políticos. Cathy O’ Niel, matemática y escritora, lo llegó a contar en su libro: Armas de destrucción matemática (2016).

Uno de los casos que expuso fue precisamente el de Corinthian Colleges, una universidad de paga estadounidense denunciada por el fiscal wide de California debido al uso indebido de datos. Según el reporte, la institución forjaba sus ingresos aprovechándose de “personas ‘aisladas’ e ‘impacientes’, con ‘poca autoestima’, con ‘pocos amigos o familiares que se preocupen por ellas’, ‘atrapadas’ en situaciones difíciles e ‘incapaces de considerar y planificar bien su futuro”.

De acuerdo con Cathy, así como Corinthian Colleges, gran parte del dinero de estas universidades se destinaba a publicidad en Google y Facebook, plataformas que les permitían segmentar a sus poblaciones objetivo con “minucioso detalle”.

Solo algunos años después se dio a conocer el caso de Cambridge Analytica, el escándalo político que expuso cómo se utilizó la minería de datos masiva para crear campañas de comunicación dirigidas de forma precisa lo que, según los resultados parece haber influido en las elecciones presidenciales de Estados Unidos en 2016.

LHM

Leer el artículo completo