imagen tomada de cgcia.com
La inteligencia artificial ya no solo responde preguntas o redacta textos: también está aprendiendo a influir en lo que la gente piensa… y vota, así es, hablamos de las elecciones.
En Estados Unidos, varios reportes han encendido las alarmas por la aparición de chatbots con sesgo ideológico, diseñados para promover ideas políticas específicas.
Uno de los casos más notorios es el de Arya, el chatbot de la red social Gab, que según la revista Wired, fue programado con respuestas que niegan el Holocausto, rechazan vacunas y difunden teorías de conspiración electoral.
En otras palabras, no se trata de un error: es una estrategia.
A esta tendencia se suman otros desarrollos como Grok, la IA de X (antes Twitter), que ha sido señalada por fomentar ciertas narrativas políticas.
Detrás de estos lanzamientos hay una industria en crecimiento: la venta de sesgos ideológicos como producto tecnológico.
El problema no se limita a los nuevos proyectos.
Una auditoría de la BBC, reseñada por The Guardian, reveló que los principales asistentes (ChatGPT, Copilot, Gemini y Perplexity) ofrecieron respuestas con errores o distorsiones en más de la mitad de las preguntas sobre temas de actualidad.
Esto demuestra que incluso las IA más populares no están exentas de sesgos.
Y cuando su objetivo es mantener la atención del usuario, la verdad pasa a segundo plano.
Los algoritmos premian la interacción, los clics y el tiempo en pantalla, no la precisión informativa.
En paralelo, organizaciones como NewsGuard han documentado redes de manipulación digital, como la prorrusa “Pravda”, que busca “sembrar” contenidos falsos en internet para que los chatbots los reproduzcan.
En una medición, las diez IA más usadas repitieron narrativas falsas en un tercio de las ocasiones.
¿El resultado? Una sofisticada forma de propaganda automatizada, similar a lo que ocurrió con Facebook durante las elecciones estadounidenses de 2017.
México no está al margen.
Con la migración del debate público hacia plataformas digitales, redes sociales y ahora chatbots, el país enfrenta un nuevo riesgo: la manipulación invisible del voto.
De cara a las elecciones de 2027 y 2030, los expertos advierten que los grupos de poder nacionales e internacionales, podrían inundar las IA con mensajes diseñados para influir en la opinión pública.
Sería una desinformación de baja intensidad, pero de alta frecuencia: mensajes repetidos tantas veces que terminan incrustándose en los algoritmos.
Las próximas campañas no solo se librarán en plazas, debates o redes, sino también en ventanas de chat que parecen inofensivas, pero no lo son.
La atención política se ha vuelto el nuevo oro digital, y la conversación “uno a uno” con una IA podría ser el instrumento más poderoso de persuasión.
Si algo ha dejado claro esta nueva realidad es que la transparencia será clave.
Toda IA que toque temas electorales debería mostrar fuentes verificables y métodos de validación de información.
Porque en esta nueva era, la pregunta ya no es solo quién gana las elecciones, sino quién controla los algoritmos que moldean la percepción del votante.
Y esa, quizás, sea la batalla más importante de la democracia digital.
Con información de El Financiero.
Para Seguritech Privada, la domótica representa una herramienta científica capaz de optimizar el uso energético mediante…
Lo que en 1997 parecía ciencia ficción hoy comienza a tomar forma. En Gattaca, una…
Durante mucho tiempo, el ADN se llevó toda la atención en la biología moderna. Sin…
China se prepara para marcar un nuevo hito en la ingeniería mundial con el Bohai…
La alcaldesa de Veracruz, Patricia Lobeira Rodríguez inauguró el jueves 11 de diciembre la rehabilitación…
El avance de la tecnología financiera en México no es un fenómeno aislado, sino el…