Un grupo de científicos de la Universidad de California Los Ángeles (UCLA) ha comprobado que los humanos confían más en las máquinas de inteligencia artificial cuando estas explican lo que hacen, según un artículo que publica la revista Science Robotics.
En un estudio financiado por la Agencia de Proyectos Avanzados de Investigación de Defensa (DARPA, en inglés) -la oficina del Pentágono responsable del desarrollo de tecnologías para uso militar-, los investigadores indicaron la necesidad de crear robots que puedan optimizar tanto la ejecución de tareas como la confianza humana.
Para este experimento el equipo encabezado por Mark Edmonds empleó un aparato operado por inteligencia artificial capaz de abrir frascos de píldoras con varios dispositivos de seguridad y de explicar sus acciones al mismo tiempo y de distintas maneras.
Una prueba psicológica posterior en la que 150 estudiantes escucharon al robot mostró que las formas de explicación más aptas para inspirar confianza no se corresponden necesariamente con las acciones que permiten que el aparato se desempeñe de la mejor manera.
“En el pasado las máquinas estaban diseñadas para hacer exactamente lo que se suponía que debían hacer en el espacio de trabajo bajo control humano, de manera que sabemos exactamente qué hacen paso a paso”, dijo en una rueda de prensa Song Chun Zu, profesor de Estadística y Ciencias de Computación en la UCLA.
“Ahora entramos en la nueva era de inteligencia artificial, y confiamos en máquinas para la toma de decisiones y las recomendaciones como la conducción autónoma, el diagnóstico médico y todo tipo de robots ayudantes”, añadió. Otro de los participantes en el estudio, dice que para entender el porqué, hay que estudiar a la gente.
No hay comentarios:
Publicar un comentario