imagen tomada de cgcia.com
La inteligencia artificial ya no solo responde preguntas o redacta textos: también está aprendiendo a influir en lo que la gente piensa… y vota, así es, hablamos de las elecciones.
En Estados Unidos, varios reportes han encendido las alarmas por la aparición de chatbots con sesgo ideológico, diseñados para promover ideas políticas específicas.
Uno de los casos más notorios es el de Arya, el chatbot de la red social Gab, que según la revista Wired, fue programado con respuestas que niegan el Holocausto, rechazan vacunas y difunden teorías de conspiración electoral.
En otras palabras, no se trata de un error: es una estrategia.
A esta tendencia se suman otros desarrollos como Grok, la IA de X (antes Twitter), que ha sido señalada por fomentar ciertas narrativas políticas.
Detrás de estos lanzamientos hay una industria en crecimiento: la venta de sesgos ideológicos como producto tecnológico.
El problema no se limita a los nuevos proyectos.
Una auditoría de la BBC, reseñada por The Guardian, reveló que los principales asistentes (ChatGPT, Copilot, Gemini y Perplexity) ofrecieron respuestas con errores o distorsiones en más de la mitad de las preguntas sobre temas de actualidad.
Esto demuestra que incluso las IA más populares no están exentas de sesgos.
Y cuando su objetivo es mantener la atención del usuario, la verdad pasa a segundo plano.
Los algoritmos premian la interacción, los clics y el tiempo en pantalla, no la precisión informativa.
En paralelo, organizaciones como NewsGuard han documentado redes de manipulación digital, como la prorrusa “Pravda”, que busca “sembrar” contenidos falsos en internet para que los chatbots los reproduzcan.
En una medición, las diez IA más usadas repitieron narrativas falsas en un tercio de las ocasiones.
¿El resultado? Una sofisticada forma de propaganda automatizada, similar a lo que ocurrió con Facebook durante las elecciones estadounidenses de 2017.
México no está al margen.
Con la migración del debate público hacia plataformas digitales, redes sociales y ahora chatbots, el país enfrenta un nuevo riesgo: la manipulación invisible del voto.
De cara a las elecciones de 2027 y 2030, los expertos advierten que los grupos de poder nacionales e internacionales, podrían inundar las IA con mensajes diseñados para influir en la opinión pública.
Sería una desinformación de baja intensidad, pero de alta frecuencia: mensajes repetidos tantas veces que terminan incrustándose en los algoritmos.
Las próximas campañas no solo se librarán en plazas, debates o redes, sino también en ventanas de chat que parecen inofensivas, pero no lo son.
La atención política se ha vuelto el nuevo oro digital, y la conversación “uno a uno” con una IA podría ser el instrumento más poderoso de persuasión.
Si algo ha dejado claro esta nueva realidad es que la transparencia será clave.
Toda IA que toque temas electorales debería mostrar fuentes verificables y métodos de validación de información.
Porque en esta nueva era, la pregunta ya no es solo quién gana las elecciones, sino quién controla los algoritmos que moldean la percepción del votante.
Y esa, quizás, sea la batalla más importante de la democracia digital.
Con información de El Financiero.
Los drones con alas están cambiando la forma en que entendemos estos dispositivos. Durante años,…
La adicción a redes sociales ha sido el centro de un fallo histórico en Estados…
Los celulares transparentes Nothing están dando de qué hablar en la industria tecnológica, no solo…
Paula Trade Hidalgo presenta prioridades claras para la capital La sindicatura de Cuernavaca ha planteado…
La energía solar espacial empieza a perfilarse como una de las tecnologías más ambiciosas del…
Alfredo Del Mazo Maza, político mexicano y especialista en movilidad urbana, sitúa la movilidad corporativa…