Un estudio publicado en la revista académica Proceedings of the National Academy of Sciences realizado por Sean Westwood, profesor en Ciencias Políticas de la Universidad de Dartmouth, Estados Unidos, reveló que la inteligencia artificial puede infiltrarse en las encuestas de opinión pública en línea sin ser detectada prácticamente en ningún caso.
“Con datos de encuestas contaminados por bots, la IA puede envenenar todo el ecosistema de conocimiento”, afirmó Westwood.
“Con datos de encuestas contaminados por bots, la IA p
El investigador construyó un sistema de IA programado mediante un simple prompt de 500 palabras. Este sistema fue diseñado para imitar completamente el comportamiento humano en las encuestas. Los resultados fueron devastadores, siendo que en más de 43,000 pruebas, la herramienta de IA pasó el 99.8% de todos los controles de atención diseñados específicamente para detectar respuestas automatizadas. Resolvió sin errores acertijos de lógica y burló las salvaguardas tradicionales como reCAPTCHA, la herramienta de verificación que está presente en millones de sitios web.
El sistema de IA funciona a través de dos capas altamente sofisticadas. En primer lugar, construye un perfil demográfico coherente y verosímil, asignando de manera aleatoria una edad, un género, una raza, un nivel educativo, un ingreso promedio y un estado de residencia, y mantiene la coherencia de ese personaje a lo largo de todas sus respuestas. En segundo lugar, simula el comportamiento humano con un nivel extraordinario de detalle. Para ello genera tiempos de lectura ajustados al nivel educativo del personaje, reproduce movimientos de ratón que imitan los de una persona real y redacta respuestas a preguntas abiertas letra por letra, incluyendo errores tipográficos plausibles y las correcciones que un usuario humano haría de manera natural.
Lo más perturbador es que el sistema puede ser programado para “pensar a través de cada pregunta” y “actuar como personas reales y cuidadosas”, haciendo que los datos parecen completamente legítimos. No son bots crudos, sino imitadores sofisticados del razonamiento humano.
La magnitud del riesgo se vuelve evidente cuando examinamos los números. En las siete encuestas nacionales más importantes realizadas antes de las elecciones presidenciales estadounidenses de 2024, añadir simplemente entre 10 y 52 respuestas falsas generadas por IA habría sido suficiente para cambiar completamente el resultado predicho.
Para ponerlo en perspectiva, a cinco centavos por respuesta, esto hubiera costado entre cinco dólares y dos dólares y sesenta centavos. El costo de sabotaje es ínfimo.
Westwood demostró esto experimentalmente, cuando el sistema de IA fue programado para favorecer a demócratas, la aprobación presidencial saltó del 34% al 98%. Cuando fue programado para favorecer a republicanos, cayó a 0%. El apoyo genérico pasó del 38% republicano al 97% o al 1%, dependiendo de cómo fue programado el sistema de IA. Esto es manipulación total de la percepción pública.
Los participantes humanos típicamente ganan 1.50 dólares por completar una encuesta. Los bots de IA pueden completar la misma tarea prácticamente gratis o por aproximadamente cinco centavos.
Lo más preocupante es que ya está ocurriendo. Un estudio de 2024 encontró que el 34% de los encuestados habrían utilizado IA para responder preguntas de respuesta abierta en encuestas.
–







