Выражающий эмоции робот помог людям наладить общение друг с другом

Американские исследователи проверили, как поведение робота в группе с людьми влияет на их общее взаимодействие при выполнении задач. Выяснилось, что в группах с роботами, признающими свои ошибки и выражающих эмоции, взаимодействие налаживается на более высоком уровне, чем в случае с молчаливыми или нейтральными роботами. Статья опубликована в журнале Proceedings of the National Academy of Sciences.

Важную часть исследований в области робототехники составляет не разработка новых технологий, а изучение особенностей взаимодействия людей с роботами. Эти исследования зачастую приводят к контринтуитивным результатам, таким как эффект «зловещей долины», или выясняется, к примеру, что люди предпочитают роботов, совершающих ошибки. Кроме того, исследования также показывают, что доверие к роботам и их привлекательность коррелируют с тем, как они объясняют свои действия и объясняют ли вообще.

Группа ученых из Йельского университета во главе с Николасом Христакисом (Nicholas Christakis) соединила два типа исследований и проверила, как ошибки и объяснения влияют на взаимодействие в группе, состоящей из людей и робота. Фактически цель исследования заключалась в том, чтобы проверить, может ли различие в поведении робота повлиять не только на взаимодействие типа робот-человек, но и на взаимодействие типа человек-человек.

Всего в исследовании участвовало 153 добровольца, которые вместе с небольшим человекоподобным роботом NAO по очереди образовывали 51 группу из четырех участников. Во время эксперимента группа из трех людей и робота сидела за столом с четырех сторон, а перед ними лежали планшеты с игрой. В ней участникам каждый раунд предлагался набор из различных отрезков рельсов, и за 40 секунд было необходимо построить оптимальный железнодорожный путь между двумя точками. Всего в игре было 30 раундов, после которых добровольцы заполняли опросник, а затем им объясняли гипотезу исследования и другие подробности, которые могли бы повлиять на результат, если бы они были известны заранее.

Группы были поделены на три части в соответствии с тремя режимами поведения робота. Во всех режимах в начале и середине раундов робот обычно говорил единую для всех раундов приветственную и промежуточную фразу. В нейтральном режиме робот также комментировал раунд после его завершения во время 15-секундной паузы, просто зачитывая промежуточные результаты. В чувствительном режиме робот использовал эту паузу между раундами для того, чтобы выразить свои эмоции от раунда в человечной манере, например:

Отличная работа! Я думаю, что мы работаем вместе так же хорошо, как ВАЛЛ-И и ЕВА.
Простите меня. Я не смог составить полный путь в этом раунде. Мне грустно оттого, что я вас всех подвел.
Исследователи выбрали необычную схему эксперимента, в которой все исходы фактически были предопределены для того, чтобы ключевую метрику (длительность разговоров) было легче сравнивать. Отчасти это было сделано путем намеренных ошибок робота в определенных раундах, а отчасти благодаря намеренным багам в игре, не дающим пользователям правильно расположить один из отрезков рельсов в некоторых раундах. Если в раунде ошибался хотя бы один участник, вся команда проигрывала.

После эксперимента все участники заполняли личностный опросник Айзека, на основе которого рассчитывали степень открытости по отношению к другим участникам команды. Кроме того, исследователи записывали время разговоров, причем отдельно для каждого участника, чтобы узнать равномерность его распределения.

Результаты экспериментов показали, что в группах, в которых робот выражал свои эмоции, участники в среднем говорили в два раза дольше, чем в других. Кроме того, оказалось, что в группах с роботом, не говорящим после каждого раунда, равномерность распределения разговора между частниками была ниже. Анализ опросников показал, что участники посчитали группы с эмоциональным роботом более активными, позитивными и веселыми.

На восприятие робота людьми также влияет и его внешний вид. В 2018 году американские ученые провели большое исследование и выяснили, какие черты лица в роботах сильнее всего влияют на формирование доверия к ним и их привлекательность. Выяснилось, что отсутствие ключевых элементов лица, таких как рот или зрачки, сильнее всего повышает недоверие и негативное восприятие по отношению к роботу.

Иллюстрация к статье: Яндекс.Картинки

Читайте также

Оставить комментарий