imagen tomada de nationalgeographic.com
La llegada de Meta AI en WhatsApp no pasó desapercibida. Para muchos usuarios, el nuevo botón de inteligencia artificial apareció sin aviso previo en la barra de búsqueda o en la parte superior de la app, generando dudas, incomodidad y preguntas sobre privacidad, especialmente entre quienes usan la plataforma para trabajo o conversaciones sensibles.
Aunque Meta asegura que se trata de una función “opcional”, distintos medios internacionales han confirmado que no existe una forma directa de desactivarla por completo.
En abril, la BBC confirmó que Meta reconoció que no es posible eliminar el ícono de Meta AI, aunque aclaró que nadie está obligado a usarlo. En la misma línea, AP News publicó una guía donde explica que, si bien no se puede desactivar, sí hay alternativas para “minimizar su presencia”, como archivar el chat del asistente o evitar cualquier interacción con él.
La polémica creció en julio de 2025, cuando Reuters informó que Meta enfrentaba una investigación del regulador italiano de competencia. El motivo: la forma en que se integró Meta AI en WhatsApp y la falta de claridad sobre las opciones reales para los usuarios.
Privacidad y uso de datos
De acuerdo con el sitio AtomicMail, los mensajes tradicionales de WhatsApp siguen cifrados de extremo a extremo. Sin embargo, las conversaciones que los usuarios mantienen directamente con Meta AI no necesariamente cuentan con el mismo nivel de protección, lo que genera inquietud sobre el uso de esa información para entrenar modelos de IA o crear perfiles de comportamiento.
Control limitado de la herramienta
Medios como The Sun señalan que interactuar con el asistente puede hacer que su presencia sea cada vez más frecuente. Para periodistas, profesionales de la salud, abogados o funcionarios, el botón constante puede generar ruido visual o desconfianza, aun cuando la IA no intervenga automáticamente en los chats.
Consentimiento poco claro
Wired resumió la situación de forma contundente: el usuario no tuvo una opción real de aceptar o rechazar la integración. El asistente forma parte del diseño de WhatsApp, incluso si nunca se piensa usar.
Aunque no existe un botón para desactivar Meta AI, expertos y guías especializadas recomiendan algunas acciones para reducir su impacto:
Archivar o eliminar el chat de Meta AI para que no aparezca entre las conversaciones principales.
Evitar tocar el ícono o iniciar chats con el asistente.
Revisar y limitar los permisos del teléfono, como cámara, micrófono o ubicación.
Usar opciones de “Privacidad avanzada”, disponibles solo en algunas regiones, para restringir funciones inteligentes en ciertos chats.
Además, especialistas en ciberseguridad sugieren que quienes manejan información sensible consideren separar sus conversaciones profesionales o incluso evaluar alternativas enfocadas en privacidad, como Signal.
A este panorama se suma un anuncio clave: a partir del 16 de diciembre, Meta usará las conversaciones con su asistente para ajustar publicidad y recomendaciones en otras plataformas del grupo. La empresa aseguró que no habrá opción para desactivar este sistema y que solo aplicará a quienes interactúen con la IA.
Aunque el impacto en WhatsApp sería menor para quienes no tengan cuentas vinculadas a Facebook o Instagram, el mensaje es claro: la inteligencia artificial de Meta ya no es solo una función extra, sino una pieza central de su modelo publicitario, y su implementación seguirá avanzando de forma gradual, con notificaciones para todos los usuarios.
Con información de El Tiempo.
El uso de la inteligencia artificial ya es parte del día a día en las…
Samsung vuelve a colocarse en el centro de la conversación tecnológica. Mientras comienzan a circular…
Durante décadas, el arsénico ha sido visto únicamente como un enemigo silencioso del agua potable.…
Una startup china está llamando la atención del sector tecnológico y médico al presentar una…
México dio un paso importante en el debate sobre la ética de la IA. La…
La tecnología y el atletismo de alto rendimiento se encuentran en un nuevo reloj, un…