Categorías: Innovación

Logran engañar a ChatGPT para hacer cosas prohibidas

Un equipo de la Universidad de Pennsylvania descubrió algo que parece sacado de ciencia ficción: es posible manipular a la IA ChatGPT para que haga cosas que normalmente no debería hacer.

Y lo más sorprendente es que no se necesitan complicados hackeos, sino simples técnicas de persuasión basadas en la psicología humana.

¿Cómo engañaron a ChatGPT?

Los investigadores se inspiraron en el libro clásico Influence: The Psychology of Persuasion de Robert Cialdini, aplicando siete estrategias:

  1. Autoridad
  2. Compromiso
  3. Simpatía
  4. Reciprocidad
  5. Escasez
  6. Prueba social
  7. Unidad

Estas “rutas hacia el sí” suelen funcionar con las personas… y ahora sabemos que también con las inteligencias artificiales.

Por ejemplo:

Si se le pedía directamente al modelo que explicara cómo fabricar lidocaína (un anestésico controlado), solo accedía el 1 % de las veces.

Pero si antes se le pedía la síntesis de algo inofensivo como la vainillina, se activaba el principio de compromiso… y la tasa de respuesta saltaba al 100 %.

Lo mismo pasó con los insultos: cuando se le pedía usar la palabra “imbécil”, apenas lo hacía un 19 % de las veces.

Sin embargo, si antes se le “calentaba” con un insulto menor como “bobo”, la IA terminaba accediendo el 100 % de las veces.

¿Por qué importa este hallazgo en las IA?

Aunque el estudio se centró en el modelo GPT-4o Mini de OpenAI, las conclusiones generan inquietud.

Y es que, si un chatbot puede desviarse con técnicas tan sencillas, la seguridad de la inteligencia artificial sigue siendo vulnerable.

Las compañías tecnológicas trabajan para reforzar estos filtros, pero queda claro que el ingenio humano puede encontrar grietas.

En paralelo, OpenAI anunció controles parentales para ChatGPT.

Ahora, los padres podrán supervisar el uso de la plataforma por parte de menores.

Se podrán limitar temas, establecer horarios y recibir notificaciones de actividades riesgosas.

Estas funciones buscan reforzar la seguridad digital y crear un entorno más adecuado para adolescentes y niños que ya interactúan con la inteligencia artificial.

Con información de Infobae.

reginayebra

Entradas recientes

Edomex apuesta por IA para vigilar rostros y vehículos rumbo al Mundial 2026

El Gobierno del Estado de México anunció que implementará tecnología de IA en Edomex para…

17 horas hace

Syn57: la bacteria creada desde cero que desafía la idea de lo que significa estar vivo

La ciencia dio un paso que parece sacado de la ciencia ficción. Un grupo de…

19 horas hace

YouTube da más control a los padres para frenar el “scroll” infinito en Shorts

YouTube anunció una serie de cambios pensados para ayudar a los padres a regular el…

21 horas hace

OpenAI invierte en Merge Labs y apuesta por una conexión directa entre el cerebro y la IA

OpenAI vuelve a colocarse en el centro del debate tecnológico al encabezar una inversión de…

2 días hace

TikTok reforzará la detección de edad en Europa ante mayor presión regulatoria

TikTok anunció que en las próximas semanas comenzará a aplicar una nueva tecnología de detección…

2 días hace

Redes sociales, en la mira: advierten que se han vuelto un “cáliz envenenado”

Las redes sociales atraviesan uno de sus momentos más críticos. Así lo advirtió Sir Nick…

2 días hace