Надежность робота для людей оказалась важнее его рассуждений — Роботех

Надежность робота для людей оказалась важнее его рассуждений

Что нужно человеку, чтобы доверять роботу? Это то, что исследователи раскрывают в новом исследовании о том, как люди и роботы работают вместе.

Исследование взаимодействия человека с агентом, позволило ученым понять, как совместная работа с роботами, беспилотными транспортными средствами или программными агентами влияет на человеческое доверие, выполнение задач, рабочую нагрузку и восприятие агента. Также ученые попытались исследовать такой параметр, как прозрачность агента, то есть его способность донести до людей свои намерения, процесс мышления и планы на будущее.

Новое исследование, проводимое Исследовательской лабораторией армии США, показало, что доверие людей к роботам снижается после того, как робот совершает ошибку, даже когда он излагает свои рассуждения и приводит аргументы в пользу совершенных поступков рассуждения. 

На сегодняшний день исследования в основном проводились с совершенно надежными интеллектуальными агентами, то есть агентами, которые не делают ошибок. В этом последнем исследовании люди стали свидетелями того, как робот совершил ошибку, и исследователи сосредоточились на том, считают ли люди робота менее надежным, даже если человеку было предоставлено представление о процессе его рассуждения.

«Понимание того, как поведение робота влияет на их товарищей по команде, имеет решающее значение для разработки эффективных команд человек-робот, а также для разработки интерфейсов и методов связи между членами команды», — сказала доктор и главный исследователь этого проекта и исследователь в Военно-исследовательской лаборатории командования по развитию боевых возможностей армии США, также известной как ARL Джулия Райт.

Это исследование было совместным усилием ARL и Института моделирования и обучения Университета Центральной Флориды и является третьим и последним исследованием в рамках проекта члена автономного отряда (ASM), спонсируемого Пилотной инициативой исследования автономии при Министерстве обороны. ASM — это маленький наземный робот, который взаимодействует с пехотным отрядом и взаимодействует с ним.

Исследователи провели это исследование в моделируемой среде, в которой участники наблюдали команду солдат-человек-агент, в которую входил ASM, проходя учебный курс. Задача участников состояла в том, чтобы контролировать команду и оценивать робота. Команда Солдат-робот столкнулась с различными препятствиями на своем пути и отреагировала соответственно. Хотя солдаты всегда правильно реагировали на происходящее, иногда робот неправильно понимал ситуацию, приводя к неправильным действиям. Количество информации, которой поделился робот, варьировалось между испытаниями. 

Исследование показало, что независимо от прозрачности робота в объяснении его аргументов, надежность робота была решающим фактором, влияющим на прогнозы участников относительно будущей надежности робота, доверия к роботу и восприятия робота. То есть после того, как участники засвидетельствовали ошибку, они продолжали оценивать надежность робота ниже, даже когда робот не совершал никаких последующих ошибок. Хотя эти оценки постепенно улучшались с течением времени, пока робот не допускал дальнейших ошибок, уверенность участников в собственных оценках надежности робота оставалась сниженной на протяжении оставшейся части испытаний по сравнению с участниками, которые никогда не видели ошибки. Кроме того, участники, которые стали свидетелями ошибки робота, сообщили о снижении доверия к роботу.

Было обнаружено, что повышение прозрачности агента повышает доверие участников к роботу, но только тогда, когда робот собирает или фильтрует информацию. Это может указывать на то, что совместное использование подробной информации может смягчить некоторые последствия ненадежной автоматизации для конкретных задач. Кроме того, участники оценили ненадежного робота как менее живого, симпатичного, умного и безопасного, чем более надежного робота.

Add a Comment

Ваш e-mail не будет опубликован. Обязательные поля помечены *