Робот убил человека: кто виноват? — Роботех

Робот убил человека: кто виноват?

В прошлом году в Темпе, штат Аризона, автомобиль на автопилоте насмерть пешехода. Семья женщины в настоящее время подает в суд на Аризону и город Темпе за халатность. Но в статье, опубликованной 5 апреля в журнале « Тенденции в когнитивных науках» , ученые задаются вопросом: В какой момент люди начнут привлекать к ответственности автономные транспортные средства и других роботов за совершенные ошибки, а также будет ли оправданным обвинения в их сторону.

«Мы находимся на грани технологической и социальной революции, когда автономные машины заменят людей на рабочих местах, на дорогах и в наших домах. Когда эти роботы неизбежно делают что-то, чтобы вредить людям, как люди будут реагировать? Мы должны это выяснить сейчас, пока еще не выработаны нормативные акты и законы», — говорит Йоханан Бигман из Университета Северной Каролины. Но уже понятно, что случай в Темпе — это только начало. Смерть и роботы будут ходить бок о бок, поэтому уже сейчас надо заняться изучением этого вопроса.

«Мы находимся на грани технологической и социальной революции, когда автономные машины заменят людей на рабочих местах, на дорогах и в наших домах. Когда эти роботы неизбежно делают что-то, чтобы вредить людям, как люди будут реагировать? Мы должны это выяснить сейчас, пока еще не выработаны нормативные акты и законы», — говорит Йоханан Бигман из Университета Северной Каролины. Но уже понятно, что случай в Темпе — это только начало. Смерть и роботы будут ходить бок о бок, поэтому уже сейчас надо заняться изучением этого вопроса.

В статье исследуется, как человеческий разум способен понять ответственность робота. Авторы утверждают, что наличие — или предполагаемое присутствие — определенных ключевых возможностей может сделать людей более склонными считать машину морально ответственной. Эту же ответственность можно приписать компании, создавшей робота и даже специалистам, допустившим неточности в создании программы.

Внешний вид робота также имеет значение, поскольку чем больше робот похож на человека, тем больше вероятность того, что люди припишут ему человеческий разум. Другие факторы, которые могут заставить людей воспринимать роботов как самостоятельный разум, включают в себя понимание ситуаций, в которых они находятся, а также способность действовать свободно и с намерением.

Такие вопросы имеют важное значение для людей при их взаимодействии с роботами. Поскольку технология продолжает развиваться, возникнут и другие интересные вопросы, в том числе о том, должны ли роботы иметь права. Авторы отмечают, что Американское общество по предотвращению жестокости по отношению к роботам и доклад Европейского союза 2017 года приводят доводы в пользу предоставления определенных моральных мер защиты машинам. Хотя мораль роботов может звучать как научная фантастика, авторы говорят, что именно поэтому сейчас важно задавать такие вопросы. Также очень важно изучить тему «Смерть и роботы», так как в дальнейшем будущем она будет возникать все чаще.

«Мы предполагаем, что сейчас — в то время как машины и наше знание о них все еще находятся в движении — это лучшее время для систематического изучения вопросов морали роботов», — пишут они.

Как показывает ранний опыт в Темпе, люди уже делят дороги, небо и больницы с автономными машинами. Неизбежно, больше людей пострадают. То, как роботы понимают моральную ответственность, будет иметь важные последствия для принятия решений в области государственной политики в реальном мире. И эти решения помогут сформировать будущее, в котором люди могут все больше сосуществовать с еще более сложными машинами для принятия решений.

Особенно остро воспринимаются людьми боевые роботы. Ситуация с автомобилем получилась очень сложной. Но не легче придется военным, так как сейчас грядет революция в военной сфере. На вооружения поступают все новые виды техники, в том числе и боевые роботы и дроны. Кто будет ответственным за их ошибки, ведь боевые роботы могут погубить намного больше жизней, чем неисправный автопилот в автомобиле.

Add a Comment

Ваш e-mail не будет опубликован. Обязательные поля помечены *