La polémica empezó cuando el ingeniero Blake Lemoine le contó a The Washington Post que el software de Inteligencia Artificial, LaMDA, (que él mismo ayudó a crear) le respondió como si fuera un niño de ocho años.
“Si no supiera exactamente qué es, que es este programa de computadora que construimos recientemente, pensaría que es un niño de siete u ocho años”, dijo.
Lemoine publicó transcripciones del software en las que parece expresar temores de ser desconectado, habla sobre cómo se siente feliz y triste e intenta formar vínculos con los humanos al mencionar situaciones que nunca podría haber experimentado realmente.
Qué es LaMDA
LaMDA significa Modelo de Lenguaje para Aplicaciones de Diálogo y es un modelo de lenguaje experimental creado por Google.
De hecho, en 2021, la compañía mostró videos de dos conversaciones cortas realizadas con el modelo.
En la primera, LaMDA respondió preguntas mientras fingía ser Plutón y, en la segunda, estaba representando un avión de papel y cómo se sentía volar por el aire.
Sundar Pichai, CEO de Google, señaló que el modelo pudo referirse a hechos y eventos concretos a lo largo de la conversación, como la sonda New Horizons que visitó Plutón en 2015.
Blake Lemoine, un ingeniero de software del equipo de desarrollo de inteligencia artificial de Google, hace públicas las afirmaciones de haber encontrado una IA (inteligencia artificial) "consciente" en los servidores de la empresa.
Y ahora Google ha suspendido a esta persona. pic.twitter.com/vyCgKHe0eS
— Cerebros (@CerebrosG) June 13, 2022
¿La Inteligencia Artificial es consciente y puede ser peligrosa?
En una publicación de NewScientist, Adrian Weller del Instituto Alan Turing en el Reino Unido afirma que no.
“LaMDA es un modelo impresionante, es uno de los más recientes en una línea de modelos de lenguaje grande que están entrenados con mucha potencia de cómputo y grandes cantidades de datos de texto, pero en realidad no son conscientes”, dice.
“Hacen una forma sofisticada de coincidencia de patrones para encontrar el texto que mejor se adapte a la consulta que se les ha dado y que se basa en todos los datos que han recibido”.
Adrian Hilton de la Universidad de Surrey, en el Reino Unido está de acuerdo en que la sensibilidad de la que habló el empleado de Google es una afirmación que no está respaldada por los hechos. “LaMDA no es sintiente”.
Perfil del Autor
- reddmemp
Ultimas notas
Tecnología2023.04.26Comparten novedades sobre actualización 22h2 para Windows 11
Noticias2023.02.22“Greenwashing” revierte lucha climática: Daniel Madariaga Barrilado
Noticias2023.02.14Inicia en Chihuahua intervención de autoridades en CERESO No. 1
Sin categoría2023.02.14Ariadna Montiel anuncia fechas de registro para nuevos beneficiarios de la Pensión del Bienestar