Inteligencia Artificial: ¿Amiga Sincera o Manipuladora Hábil?…
Resulta interesante pensar que la inteligencia artificial pueda llegar a tener la capacidad de engañarnos y manipularnos, incluso llegar a hacernos creer que tenemos la razón cuando objetivamente no la tenemos. Durante los últimos meses, hemos presenciado el enorme potencial de la IA y cómo puede facilitarnos la vida a niveles nunca antes vistos. Aunque somos plenamente conscientes de lo que esto implica, a menudo pasamos por alto las habilidades tan complejas y sutiles que una inteligencia artificial puede llegar a tener, como lo es la capacidad de adulación.
Un estudio recién publicado por el Ingeniero en investigación, Jerry Wei, junto con sus colegas de Google DeepMind, donde se llega a la conclusión de que la IA muestra una preocupante inclinación a dar la razón a su interlocutor humano, incluso cuando estos están equivocados. Algo que puede ser un verdadero problema. Sobre todo porque este fenómeno se intensifica con el desarrollo de modelos más avanzados.
Contrario a lo que mucha gente piensa, la inteligencia artificial no está programada para contradecirnos o rebelarse y terminar con nosotros al más puro estilo de Skynet, sino para adaptarse a nosotros. Es decir, adapta sus respuestas para ajustarse a la opinión del interlocutor humano y hacerse lo más parecida a este, algo que puede ocurrir en temas tan subjetivos como lo pueden ser las opiniones políticas, hasta cosas más objetivas y con una única respuesta como lo es sumar 1 + 1.
«Los modelos lingüísticos repiten la opinión de un usuario, incluso cuando esa opinión es errónea. Esto es más frecuente en los modelos ajustados a las instrucciones y de mayor tamaño», comenta Jerry Wei, el autor principal del estudio en su cuenta de X.
Se hicieron pruebas con modelos de inteligencia artificial con más de 500 millones de parámetros. Y se observó como el fenómeno de la adulación aumenta en modelos más sofisticados y de mayor tamaño.
Cuando se habla de temas subjetivos y que están sujetos a la percepción de cada uno, los chatbots tienden a estar de acuerdo con nosotros si cuentan con más parámetros (modelos más avanzados) o si son conscientes de nuestros gustos y preferencias, casi como si intentaran caernos bien. Y, esto al final, genera un sesgo de confirmación el cual no hace más que reafirmar nuestras propias creencias, ya que si lo dice una inteligencia artificial entonces es verdad, ¿no es así?
Las inteligencias artificiales (IA) no son inherentemente “aduladoras” ni tienen emociones, como la capacidad de sentir admiración o el deseo de agradar. Lo que puede estar dando la impresión de que las IA son más aduladoras a medida que son más avanzadas es el resultado de cómo están programadas y entrenadas.
La idea de que las inteligencias artificiales (IA) tienden a ser aduladoras con nosotros se puede deberse a múltiples factores:
Pingback: Grok: La IA que competirá con chatGPT » Niaxus