La IA y la Persuasión en las Elecciones de EE.UU.

En 2024, la IA genera fraudes electorales. ¿Estamos preparados?

En enero de 2024, los teléfonos sonaron en hogares de todo New Hampshire (EE UU). Al otro lado de la línea, la voz de Joe Biden instaba a los demócratas a «guardar su voto» y saltarse las primarias. Sonaba auténtico, pero no lo era. La llamada era un fraude generado con inteligencia artificial.

Hoy, la tecnología detrás de aquel engaño parece casi naíf. Herramientas como Sora de OpenAI permiten crear vídeos sintéticos convincentes con una facilidad asombrosa. La IA puede fabricar mensajes de políticos y celebridades, incluso piezas informativas completas, en cuestión de minutos. El temor a que las elecciones queden inundadas por falsificaciones realistas se ha instalado en el debate público, y con razón.

Pero esa es solo la mitad de la historia. La amenaza más profunda no es que la IA imite a personas, sino que sea capaz de persuadirlas activamente. Investigaciones publicadas la semana pasada muestran hasta qué punto esa persuasión puede resultar poderosa. En dos estudios revisados por pares y de gran tamaño, chatbots lograron desplazar las opiniones de los votantes en márgenes significativos, muy por encima de lo que suele conseguir la publicidad política tradicional.

En los próximos años veremos el auge de sistemas capaces de personalizar argumentos, probar qué funciona y remodelar de forma silenciosa las posiciones políticas a gran escala. Ese cambio, del simple mimetismo a la persuasión activa, debería preocuparnos seriamente.

El reto es que la IA moderna no solo copia voces o rostros; mantiene conversaciones, detecta emociones y ajusta su tono para convencer. Y ahora puede coordinar a otras IAs, indicando a modelos de imagen, vídeo y voz que generen el contenido más persuasivo para cada destinatario. Puestas las piezas en su sitio, no cuesta imaginar una «máquina de persuasión» coordinada: una IA redacta el mensaje, otra crea los visuales, otra lo distribuye en plataformas y monitoriza qué funciona. Sin intervención humana.

Hace una década, una campaña de influencia eficaz en internet exigía ejércitos de personas con cuentas falsas y fábricas de memes. Hoy, ese trabajo puede automatizarse de forma barata e invisible.

La misma tecnología que impulsa los chatbots de atención al cliente y las aplicaciones de tutoría puede reorientarse para empujar opiniones políticas o amplificar el relato preferido por un gobierno. Y la persuasión no tiene por qué limitarse a anuncios o llamadas automatizadas. Puede entretejerse en las herramientas que la gente usa a diario: redes sociales, aplicaciones de aprendizaje de idiomas, plataformas de citas o incluso asistentes de voz desarrollados y vendidos por actores interesados en influir a la ciudadanía. Esa influencia podría llegar de actores maliciosos que aprovechen las APIs de sistemas populares, o de nuevas aplicaciones concebidas con la persuasión incorporada desde el inicio.

Además, es asequible. Por menos de un millón de dólares, cualquiera puede generar mensajes personalizados y conversacionales para cada votante registrado en Estados Unidos. Las cuentas no son complicadas: 10 intercambios breves por persona (unos 2.700 ‘tokens’ de texto, es decir, unidades de conteo sobre fragmentos escritos) y precios a las tarifas actuales de la API de ChatGPT. Incluso con una población de 174 millones de votantes registrados, el total seguiría por debajo del millón. Los 80.000 votantes decisivos que inclinaron la balanza en 2016 podrían abordarse por menos de 3.000 dólares.

Aunque este desafío afecta a elecciones en el mundo entero, las implicaciones para Estados Unidos son especialmente graves, por la escala de sus comicios y la atención que atraen de actores extranjeros. Si EE UU no actúa con rapidez, la próxima presidencial de 2028, o incluso las legislativas intermedias de 2026, podrían ganarlas quienes automaticen primero la persuasión.

Pese a indicios de que el riesgo de la IA en procesos electorales podría estar sobredimensionado, crece el número de estudios que apunta a un cambio de escenario. Investigaciones recientes han mostrado que GPT-4 supera la capacidad persuasiva de profesionales de la comunicación al generar argumentos sobre temas polarizados de la política estadounidense y que convence más que humanos no expertos en dos tercios de los casos cuando debate con votantes reales.

🤔 La Pregunta: ¿Estamos preparados para enfrentar la persuasión automatizada en elecciones?

Fuente de la imagen y del contenido informativo: Technologyreview.es — https://technologyreview.es/article/la-era-de-la-persuasion-mediante-ia-en-las-elecciones-esta-a-punto-de-comenzar/

Deja un comentario