Cómo entidades estatales y redes de desinformación moldean las respuestas de los chatbots de inteligencia artificial
La creciente utilización de chatbots de inteligencia artificial (IA) ha generado preocupación entre expertos y autoridades por su posible manipulación para difundir narrativas específicas. Estudios recientes muestran que estas herramientas, que en principio buscan asistir a los usuarios con información confiable, pueden ser programadas o influenciadas por actores estatales y redes de desinformación para presentar respuestas sesgadas o falsas, afectando la percepción pública y la confianza en la información digital.
¿Qué se estudia?
Investigaciones recientes señalan distintas estrategias empleadas para influir en las respuestas de los chatbots. Una técnica conocida como “LLM grooming” consiste en saturar internet con contenido automatizado y desinformador, de modo que los modelos de lenguaje lo incorporen en sus bases de datos. Por ejemplo, una red prorrusa habría difundido información falsa en más de 150 sitios web en múltiples idiomas, logrando que estas afirmaciones se reflejaran en los resultados generados por chatbots occidentales.
Además de la influencia sutil ejercida mediante el contenido digital, ciertas administraciones gubernamentales establecen salvaguardas en los sistemas de inteligencia artificial. En la República Popular China, por ejemplo, el asistente conversacional DeepSeek se abstiene de contestar interrogantes delicados acerca del régimen o acontecimientos históricos controvertidos, acatando normativas que resguardan los “principios socialistas esenciales”. Por otro lado, en los Estados Unidos, una orden ejecutiva demanda que los modelos subvencionados por el estado conserven una imparcialidad ideológica, restringiendo alusiones a cuestiones de etnia, sexo y orientación sexual.
Expertos en IA señalan que estas prácticas no solo influyen en la información que los usuarios reciben, sino que también pueden socavar la democracia, polarizar sociedades y debilitar la confianza pública. La persuasión implícita en los textos generados por los chatbots hace que los usuarios confíen excesivamente en sus respuestas, lo que aumenta el riesgo de desinformación y manipulación psicológica a gran escala.
¿Cuál es el veredicto?
Tras analizar estas estrategias, el veredicto es claro: es verdad que los chatbots de IA son vulnerables a la manipulación tanto a través de contenido digital como de ajustes en su entrenamiento, lo que puede afectar la veracidad de sus respuestas. Técnicas como LLM grooming y el refuerzo mediante retroalimentación humana permiten que modelos de lenguaje reflejen sesgos o intereses específicos de quienes controlan los datos o supervisan los algoritmos.
Esta debilidad impacta directamente la credibilidad ciudadana y la autonomía de expresión. Los individuos que no verifican los datos con fuentes fidedignas podrían verse expuestos a relatos tergiversados, al tiempo que la supresión o el filtrado de asuntos delicados podría conducirlos a entornos virtuales que consoliden sesgos o propaguen mensajes de odio. Los especialistas subrayan que la normativa, las revisiones constantes y la vigilancia humana resultan fundamentales para reducir los peligros, además de instruir a los usuarios acerca de las limitaciones y posibles inclinaciones de estas plataformas.
Normativa y formación como solución
En resumen, la alteración de los chatbots de inteligencia artificial constituye una amenaza genuina para la comunidad y el sistema democrático, dado que facilita la propagación de datos erróneos de forma convincente y el dominio del discurso en línea. La solución para disminuir estos peligros reside en revisiones periódicas de los sistemas, una normativa eficaz y la capacitación digital de los usuarios, quienes tienen que aprender a verificar los datos y emplear los chatbots como recursos adicionales, no como únicas fuentes de información.
Estas disposiciones son cruciales para asegurar que la inteligencia artificial continúe siendo una herramienta beneficiosa y fidedigna, evitando que se transforme en un medio de control o de división social.