Pasar al contenido principal

NOTAS DE PRENSA

Agosto 2023

¿Quién es más manipulador? ¿El humano o la IA?

Publicado por: r.parra@iprisma.es
Imagen
ESIC University

Carlos Víctor Costa, profesor de ESIC Business & Marketing School, ha iniciado una investigación para determinar en qué medida ChatGPT tiene la capacidad de persuadir y manipular

Madrid, 9 de agosto de 2023.- La capacidad de persuasión siempre ha sido una cualidad humana, y no al alcance de todos. Y para averiguar si las capacidades de persuasión o de manipulación de la inteligencia artificial (IA) superan, como en otras facetas, a las capacidades humanas, Carlos Víctor Costa, doctor en Comunicación y profesor de ESIC Business & Marketing School, ha desarrollado un estudio para determinar si la IA, concretamente ChatGPT, puede ser más persuasivo en una tarea tan humana como lo es convencer a las personas sobre lo que hacer.

El objetivo del estudio, verificar en qué medida ChatGPT puede ser una herramienta útil para movilizar los alumnos en aula y su potencial en la tarea de ‘vender’ una idea. Para ello, 50 alumnos de dos másteres de la escuela de negocios participaron en el análisis.

“El estudio se basó en exponer los alumnos a tres situaciones de lo cotidiano y dividirlos en grupos ‘humanos’ y ‘GPTs’, o sea, alumnos que usaban solo sus conocimientos y alumnos que tenían que extraer de ChatGPT los mejores argumentos para las situaciones presentadas”, explica Costa.

Los resultados del estudio indicaron una gran satisfacción de los alumnos de los dos másteres, en particular con los del Executive MBA, con el uso de la herramienta para hacer la clase más dinámica, participativa y útil para aplicación en situaciones de la realidad. “Un 90% de los alumnos ha declarado que la práctica con ChatGPT les ayudó a desarrollar mejor sus conocimientos en el área de comunicación persuasiva”, destaca el profesor de ESIC.

Por otra parte, los resultados sobre las capacidades persuasivas de ChatGPT indicaron diversos puntos que demuestran que la herramienta puede generar contenidos que se podrían claramente atribuir a humanos. “ChatGPT, como un agente conversacional, se creó para funcionar a la imagen y semejanza de un ser humano, pero siempre con un componente de objetividad muy grande”, explica Costa, para quien “es claramente posible, y eso ya ocurre, crear textos muy convincentes para uso en la publicidad, por ejemplo, o para responder a alguna consulta ciudadana. Sin embargo, aunque los discursos tienden a ser buenos, a veces suenan a ‘discurso de máquina’ si los comparamos con los discursos creados sin su ayuda”.

Asimismo, en el estudio se pudo observar cómo en una situación en que se usaba recursos de lenguaje no-verbal -tono de voz, expresiones, etc.- el impacto del discurso creado con ayuda de ChatGPT fue superior al de la opción creada sin su participación.

“Eso también nos lleva a concluir que los profesionales que sepan usar este tipo de nuevas herramientas basadas en IA tendrán una ventaja sobre aquellos que no la usen”, señala Costa, que considera que “además, en futuros desarrollos de la IA en las áreas de marketing, ventas, atención a clientes y comunicación de un modo general, con el uso combinado de texto, voz e imagen los mensajes tendrían más posibilidades de explorar las vulnerabilidades humanas y alcanzar los objetivos persuasivos de los emisores”.

Al final ChatGPT salió ‘derrotado’ en la evaluación realizada, pero por poco. Y es que los alumnos fueron evaluados en sus capacidades antes de realizar las tareas, y se observó que el conocimiento sobre ChatGPT, a pesar de todas las noticias sobre el tema, aún es escaso, lo que afectó el resultado el desempeño del grupo GPT.

El profesor de ESIC explica que la eficiencia del uso de ChatGPT solo ocurre si el usuario sabe cómo instruir a la herramienta adecuadamente, con los debidos comandos, pues “la falta de experiencia con la herramienta, la madurez de cada persona y las habilidades del alumno con el idioma acaban influenciando el resultado, que fue, al final, apretado”, concluye.

Y pasando de la persuasión a la manipulación, Costa advierte que ChatGPT podría llegar a tener capacidad para manipular a las personas. No obstante, en el análisis lo que más llamó la atención fue el uso de argumentos manipulativos por parte de las personas que no usaron ChatGPT. “Nadie manipula mejor que el ser humano” afirma en profesor de ESIC, quien explica que “la herramienta tiende a dar respuestas usando lo que llamamos ‘logos’, mientras verificamos que algunas veces los alumnos usaban, como usamos todos, técnicas de manipulación, que no es el mismo que persuasión, con argumentos emocionales implícitos que exploran fragilidades humanas”.

En última instancia, para determinar si ChatGPT puede crear mensajes persuasivos mejores que los humanos de manera consistente requeriría estudios empíricos detallados y evaluaciones en contextos específicos, y el estudio de profesor de ESIC es un primer paso.

La investigación sigue en curso, pero el estudio ya posibilita antever que el rápido desarrollo de la IA podrá causar verdaderos terremotos en áreas donde la persuasión es clave, como en marketing y ventas, y que las fronteras de la educación se expanden con la IA.

“Eso sin contar la cuestión de la desinformación”, señala el profesor. Para Costa, una herramienta de IA depende de cómo se la entrene, y si un agente conversacional como ChatGPT recibe instrucciones para manipular a la gente o crear contenidos que generen desinformación, estará ahí un gran peligro de la IA: aprender lo peor del ser humano.