Las inteligencias artificiales son más eficaces que los humanos para inducir cambios de opinión en un debate

La Voz

SOCIEDAD

Latif Kassidi | EFE

Los modelos de lenguaje son capaces de adaptar sus argumentos en un debate y explotar a su favor la información personal sobre su contrincante

15 abr 2024 . Actualizado a las 15:07 h.

Un estudio de la Escuela Politécnica Federal de Lausana (EPFL) ha concluido que los grandes modelos de lenguaje (LMM), de los cuales el más conocido es la inteligencia artificial (IA) Chat-GPT, tienen mayor capacidad que los humanos para hacer cambiar la opinión de un oponente en un debate en línea, como recoge Efe.

Los expertos analizaron el poder de persuasión de estas IA tras enfrentar a 820 personas a cuatro tipos de debates: contra otro humano que tenía previamente información personal sobre ellos, contra otro humano que no sabía nada de ellos, contra una IA informada previamente sobre ellos y contra una IA que no sabía nada de ellos.

Los resultados mostraron que los participantes que debatieron contra las IA con acceso a su información personal tenían un 81,7 % más de probabilidades de finalizar los debates de acuerdo con su oponente en comparación con los participantes que debatieron con otros humanos.

La capacidad persuasiva de las IA también era mayor que la de los humanos en los casos en los que no tenían información personal sobre su oponente, aunque en menor medida que cuando contaban con estos datos.

Según el comunicado de esta institución, los expertos consideran que esto se debe a que, a partir del procesamiento masivo de datos, los grandes modelos de lenguaje han aprendido que presentar su argumento de una determinada forma tiene más probabilidades de conducir a un resultado persuasivo.

También concluyen que estos LMM no solo son capaces de explotar eficazmente la información personal de su oponente para adaptar sus argumentos y persuadirlo en conversaciones en línea, sino que lo hacen de forma mucho más avanzada que los humanos.

«Hay mucho que explorar aquí porque los modelos pueden estar haciendo cosas que ni siquiera conocemos todavía en términos de persuasión, improvisando a partir de todo el conocimiento que tienen», afirmó el director del Laboratorio de Ciencia de Datos de la EPFL y responsable del estudio, Robert West.

En cuanto a futuras aplicaciones de esta cualidad de las IA, los expertos aseguran que las elecciones estadounidenses del próximo noviembre son un potencial escenario de experimentación debido a que la gente intentará utilizar el poder de los LMM para influir en la opinión de los votantes.

No obstante, advirtieron de que el uso de este poder de persuasión también conlleva riesgos asociados, como la posibilidad de usar una IA para suplantar perfiles de personas reales en línea con el fin de difundir desinformación en los foros de debate.

«El peligro es sobrehumano, como los chatbots, que crean argumentos convincentes y hechos a medida para impulsar narrativas falsas o engañosas en línea», concluyó West.