Examinar cómo los seres humanos desarrollan confianza hacia los agentes virtuales encarnados



Los participantes se familiarizan con ambos agentes en la introducción, antes de comenzar el experimento. Crédito: Moradinezhad & Solovey.

Los agentes virtuales incorporados (EVAs), representados gráficamente caracteres virtuales 3D que muestran un comportamiento similar al humano, podrían tener aplicaciones valiosas en una variedad de configuraciones. Por ejemplo, podrían ser utilizados para ayudar a las personas a practicar sus habilidades lingüísticas o podrían servir como compañeros para los ancianos y las personas con trastornos psicológicos o conductuales.

Investigadores de la Universidad drexel y del Instituto Politécnico worcester han llevado a cabo recientemente un estudio que investiga el impacto y la importancia de la confianza en las interacciones entre los seres humanos y los EVAs. Su artículo, publicado en springer's International Journal of Social Robotics, podría informar el desarrollo de EVAs que son más agradables y fáciles de aceptar para los seres humanos.

"Nuestro experimento se llevó a cabo en forma de dos sesiones de preguntas y respuestas con la ayuda de dos agentes virtuales (un agente para cada sesión) ", dijo Reza Moradinezhad, uno de los investigadores que llevó a cabo el estudio, a TechXplore.

En el experimento llevado a cabo por Moradinezhad y su supervisora, la Dra. Erin T. Solovey, se presentó a un grupo de participantes dos conjuntos de preguntas de opción múltiple, a las que se les pidió que respondieran en colaboración con un EVA. Los investigadores utilizaron dos EVAs, apodados agente A y agente B, y a los participantes se les asignó un agente diferente para cada conjunto de preguntas.

Los agentes utilizados en el experimento se comportaron de manera diferente; uno era cooperativo y el otro poco cooperativo. Sin embargo, mientras que algunos participantes interactuaron con un agente cooperativo mientras respondían a un conjunto de preguntas y un agente no cooperativo al responder al otro, a otros se les asignó un agente cooperativo en ambas condiciones o un agente no cooperativo en ambas condiciones.

"Antes de que nuestros participantes eligieran una respuesta, y mientras su cursor estaba en cada una de las respuestas, el agente mostró una expresión facial específica que va desde una gran sonrisa con asintiendo con la cabeza de acuerdo con un gran ceño fruncido y sacudiendo la cabeza en desaprobación", explicó Moradinezhad. "Los participantes notaron que la expresión facial altamente positiva no siempre es un indicador de la respuesta correcta, especialmente en la condición 'no cooperativa'.

El objetivo principal del estudio llevado a cabo por Moradinezhad y el Dr. Solovey era obtener una mejor comprensión del proceso a través del cual los seres humanos desarrollan confianza en los AVE. Estudios anteriores sugieren que la confianza de un usuario en los sistemas informáticos puede variar en función de cuánto confíen en otros seres humanos.

"Por ejemplo, la confianza en los sistemas informáticos suele ser alta desde el principio porque son vistos como una herramienta, y cuando hay una herramienta ahí fuera, esperas que funcione como se supone que debe hacerlo, pero las dudas son mayores para confiar en un humano ya que hay más incertidumbre", dijo Moradinezhad. "Sin embargo, si un sistema informático comete un error, la confianza para él disminuye rápidamente, ya que es visto como un defecto y se espera que persista. En el caso de los seres humanos, por otro lado, si ya hay confianza establecida, algunos ejemplos de violaciones no dañan significativamente la confianza".

Como los EVAs comparten características similares tanto con los seres humanos como con los sistemas informáticos convencionales, Moradinezhad y el Dr. Solovey querían averiguar cómo los seres humanos desarrollaron confianza hacia ellos. Para ello, observaron de cerca cómo la confianza de sus participantes en los AVE evolucionó con el tiempo, desde antes de participar en el experimento hasta cuando lo completaron.

"Esto se hizo usando tres encuestas de confianza idénticas, pidiendo a los participantes que calificaran a ambos agentes (es decir, agente A y B) ", dijo Moradinezhad. "La primera encuesta, de referencia, fue después de la sesión de introducción en la que los participantes vieron la interfaz y tanto los agentes como las expresiones faciales, pero no respondieron ninguna pregunta. La segunda fue después de que respondieran a la primera serie de preguntas en colaboración con uno de los agentes".

En la segunda encuesta, los investigadores también pidieron a los participantes que calificaran su confianza en el segundo agente, aunque aún no habían interactuado con él. Esto les permitió explorar si la interacción de los participantes con el primer agente había afectado su confianza en el segundo agente, antes de interactuar con él.

"Del mismo modo, en la tercera encuesta de confianza (que fue después del segundo set, trabajando con el segundo agente), también incluimos al primer agente, para ver si la interacción de los participantes con el segundo agente cambió su opinión sobre el primero", dijo Moradinezhad. "También tuvimos una entrevista más abierta con los participantes al final del experimento para darles la oportunidad de compartir su visión sobre el experimento".
Moradinezhad (izquierda) se prepara para hacer una tarea en la computadora mientras el Dr. Solovey (derecha) está ajustando los sensores fNIRS en su frente. Los datos del sensor son leídos y almacenados por el ordenador fNIRS (en segundo plano) para su posterior análisis. Crédito: Moradinezhad & Solovey.

En general, los investigadores encontraron que los participantes tuvieron un mejor desempeño en conjuntos de preguntas que respondieron con agentes cooperativos y expresaron una mayor confianza en estos agentes. También observaron patrones interesantes en la forma en que la confianza de los participantes cambió cuando interactuaron con un agente cooperativo primero, seguidos por un agente no cooperativo.

"En la condición de 'cooperativo-no cooperativo', el primer agente fue cooperativo, lo que significa que ayudó a los participantes el 80% de las veces", dijo Morandinezhad. "Justo después de la primera sesión, los participantes realizaron una encuesta sobre la fiabilidad de los agentes y sus calificaciones para el primer agente fueron considerablemente bajas, incluso a veces comparables a las calificaciones que otros participantes dieron al agente no cooperativo. Esto está en línea con los resultados de otros estudios que dicen que los seres humanos tienen altas expectativas de la automatización e incluso el 80% de la cooperación puede ser percibida como poco confiable".

Mientras que los participantes calificaron mal a los agentes cooperativos después de colaborar con ellos en la primera sesión de preguntas y respuestas, su percepción de estos agentes pareció cambiar si trabajaban con un agente no cooperativo en la segunda sesión. En otras palabras, experimentar agentes que mostraban un comportamiento cooperativo y poco cooperativo parecía provocar un mayor aprecio por los agentes cooperativos.

"En la entrevista abierta, descubrimos que los participantes esperaban que los agentes les ayudaran todo el tiempo y cuando para algunas preguntas la ayuda de los agentes condujo a la respuesta equivocada, pensaron que no podían confiar en el agente", explicó Morandinezhad. "Sin embargo, después de trabajar con el segundo agente y darse cuenta de que un agente puede ser mucho peor que el primer agente, ellos, como dijo uno de los participantes, 'muy preferido' trabajar con el primer agente. Esto muestra que la confianza es relativa, y que es crucial educar a los usuarios sobre las capacidades y deficiencias de estos agentes. De lo contrario, podrían terminar ignorando por completo al agente y realizando la tarea ellos mismos (al igual que uno de nuestros participantes que tuvo un desempeño significativamente peor que el resto del grupo)".

Otro patrón interesante observado por los investigadores fue que cuando los participantes interactuaron con un agente cooperativo en ambas sesiones de preguntas y respuestas, sus calificaciones para el primer agente fueron significativamente más altas que las del segundo. Este hallazgo podría explicarse en parte por un proceso psicológico conocido como "sesgo de primacía".

"El sesgo de primacía es un sesgo cognitivo para recordar y favorecer los elementos introducidos más temprano en una serie", dijo Morandinezhad. "Otra posible explicación para nuestras observaciones podría ser que, como en promedio, los participantes tenían un rendimiento más bajo en el segundo conjunto de preguntas, podrían haber asumido que el agente estaba haciendo un peor trabajo en ayudarlos. Este es un indicador de que agentes similares, incluso con la misma tasa de rendimiento exacta, se pueden ver de manera diferente en términos de fiabilidad bajo ciertas condiciones (por ejemplo, en función de su orden de apariencia o la dificultad de la tarea en cuestión)."

En general, los hallazgos sugieren que la confianza de un usuario humano en los EVAs es relativa y puede cambiar en función de una variedad de factores. Por lo tanto, los robóticos no deben asumir que los usuarios pueden estimar con precisión el nivel de fiabilidad de un agente.

"A la luz de nuestros hallazgos, creemos que es importante comunicar las limitaciones de un agente a los usuarios para darles una indicación de cuánto se puede confiar", dijo Morandinezhad. "Además, nuestro estudio demuestra que es posible calibrar la confianza de los usuarios para un agente a través de su interacción con otro agente."

En el futuro, los hallazgos recogidos por Morandinezhad y el Dr. Solovey podrían informar prácticas en robótica social y allanar el camino hacia el desarrollo de agentes virtuales que los usuarios humanos perciben como más confiables. Los investigadores están llevando a cabo nuevos estudios explorando otros aspectos de las interacciones entre los seres humanos y los EVAs.

"Estamos construyendo algoritmos de aprendizaje automático que pueden predecir si un usuario elegirá una respuesta sugerida por un agente para cualquier pregunta dada", dijo Morandinezhad. "Idealmente, nos gustaría desarrollar un algoritmo que pueda predecir esto en tiempo real. Ese sería el primer paso hacia agentes inteligentes adaptativos y emocionalmente conscientes que puedan aprender de los comportamientos pasados del usuario, predecir con precisión su próximo comportamiento y calibrar su propio comportamiento basado en el usuario".

En sus estudios anteriores, los investigadores demostraron que el nivel de atención de un participante se puede medir utilizando espectroscopia infrarroja cercana funcional (fNIRS), una interfaz cerebro-computadora no invasiva (ICC). Otros equipos también desarrollaron agentes que pueden dar retroalimentación basada en la actividad cerebral medida por fNIRS. En su trabajo futuro, Morandinezhad y el Dr. Solovey planean examinar más a fondo el potencial de las técnicas fNIRS para mejorar las interacciones con agentes virtuales.

"La integración de datos cerebrales en el sistema actual no sólo proporciona información adicional sobre el usuario para mejorar la precisión del modelo de aprendizaje automático, sino que también ayuda al agente a detectar cambios en el nivel de atención y participación de los usuarios y ajustar su comportamiento en función de eso", dijo Morandinezhad. "Un EVA que ayude a los usuarios en la toma de decisiones críticas sería así capaz de ajustar el alcance de sus sugerencias y asistencia en función del estado mental del usuario. Por ejemplo, se trataría de menos sugerencias con retrasos más largos entre cada una de ellas cuando detecta que el usuario está en estado normal, pero aumentaría el número y la frecuencia de sugerencias si detecta que el usuario está estresado o cansado."

Comentarios

Entradas populares