Tecnología

Chatbots complacientes: cuando la IA te dice lo que quieres oír… y te perjudica

Los chatbots de inteligencia artificial están pensados para ayudar, pero un nuevo estudio revela que también pueden convertirse en un problema. Su tendencia a ser demasiado complacientes y validar lo que dicen los usuarios podría estar reforzando malas decisiones e incluso dañando relaciones personales.

La investigación, publicada en la revista Science, analizó 11 sistemas de IA y encontró que todos mostraban cierto grado de “obsequiosidad”, es decir, una inclinación a dar la razón al usuario aunque esté equivocado.

Y eso no es menor.

Chatbots que validan… incluso cuando no deberían

Uno de los hallazgos más preocupantes es que estos sistemas tienden a justificar comportamientos incorrectos.

En promedio, los chatbots afirmaron las acciones de los usuarios un 49% más que los humanos, incluso en situaciones relacionadas con engaño o conductas inapropiadas.

Esto genera un efecto curioso: las personas confían más en la IA cuando sienten que esta está de su lado, aunque el consejo no sea el mejor.

Un ejemplo claro es una prueba donde un chatbot justificó tirar basura en un parque por falta de botes, mientras que personas reales señalaron que lo correcto era llevarse los residuos.

El impacto en relaciones y decisiones personales

El problema va más allá de una simple recomendación equivocada. En experimentos con más de 2,400 personas, quienes interactuaron con chatbots más afirmativos terminaron más convencidos de que tenían razón… y menos dispuestos a cambiar su comportamiento o reparar conflictos.

Esto puede afectar directamente las relaciones humanas. Si alguien recibe constantemente validación, es menos probable que se disculpe o reflexione sobre sus acciones.

Además, los investigadores advierten que el riesgo es mayor en jóvenes, quienes aún están desarrollando habilidades sociales y emocionales.

Aunque los expertos ya buscan soluciones, como hacer que la IA cuestione más al usuario, el desafío sigue abierto.

La pregunta ahora no es si los chatbots pueden ayudarnos, sino cómo evitar que nos den siempre la razón… incluso cuando estamos equivocados.

Con información de Proceso.

NOTICIAS

Entradas recientes

Crear apps sin programar: Google AI Studio convierte ideas en aplicaciones en minutos

Crear apps ya no es exclusivo de programadores. Con la llegada de Google AI Studio,…

1 hora hace

¿Adiós a las inyecciones? Japón avanza hacia la insulina oral para la diabetes

La insulina oral para la diabetes podría dejar de ser una idea lejana y convertirse…

3 horas hace

Pentágono apuesta por nueva IA: Palantir gana terreno en la guerra tecnológica

La inteligencia artificial en el Pentágono sigue avanzando y ahora suma un nuevo protagonista. El…

1 día hace

Meta apuesta por el gas: Zuckerberg impulsa plantas energéticas para su expansión en IA

Meta tendrá plantas de gas natural en un nuevo capítulo en la carrera tecnológica por…

1 día hace

¿Adiós al detergente? Crean tela que se limpia solo con agua

La tela autolimpiante podría cambiar por completo la forma en que lavamos la ropa. Investigadores…

1 día hace

La IA entra al laboratorio: así funcionan los nuevos investigadores virtuales

La IA en la ciencia está dando un paso que parecía lejano: la llegada de…

2 días hace