Двух роботов-консультантов признали «неадекватными» и закрыли — Роботех

Двух роботов-консультантов признали «неадекватными» и закрыли

Сиднейский лицензиат финансовых услуг Lime FS согласился добровольно закрыть два своих робота-консультанта после того, как Австралийская комиссия по ценным бумагам и инвестициям (ASIC) выразила обеспокоенность.

Инструменты робо-консультирования, принадлежащие Lime FS — Plenty Wealth и Lime Wealth — уполномочены предоставлять автоматизированные персональные финансовые консультации потребителям по вопросам страхования жизни, составления бюджета, налогов, инвестиций и пенсии по выслуге лет. Оба инструмента работают с использованием алгоритмов и технологий, без непосредственного участия человека-консультант, пишет ZDNet.

Тем не менее, ASIC заявила, что после рассмотрения образца файла рекомендаций от Plenty Wealth и Lime Wealth качество рекомендаций, полученных с помощью автоматических онлайн-инструментов, было «неадекватным». В некоторых случаях рекомендации, генерируемые инструментами, вступали в противоречие с целями клиента или другими рекомендациями, также генерируемыми инструментами.

«Инструменты цифрового консультирования предлагают удобную и недорогую альтернативу потребителям, которые не могут обратиться за личным финансовым советом. Однако рекомендации, предоставляемые с помощью этих инструментов, должны соответствовать тем же юридическим обязательствам, которые требуются от консультантов-людей — рекомендации должны соответствовать запросу клиента и выполнять обязанностям по соблюдению интересов», — предупредил комиссар ASIC Даниэль Пресс.

ASIC также выразила обеспокоенность по поводу способности Lime FS отслеживать рекомендации, полученные с помощью этих инструментов.

«ASIC ожидает, что лицензиаты и финансовые консультанты AFS будут использовать или рекомендовать инструменты цифрового консультирования, чтобы гарантировать, что они адекватно контролируют и проверяют рекомендации на качество и целесообразность», — заявил Пресс.

Именно такие случаи побудили подобные организации научных и промышленных исследований Содружества (CSIRO) призвать к развитию  искусственного интеллекта (ИИ) с достаточной структурой, чтобы гарантировать, что граждане ничего не ставят без надлежащего этического рассмотрения.

Data61, отдел цифровых инноваций CSIRO, опубликовал в апреле документ для обсуждения по ключевым вопросам, поднятым крупномасштабным ИИ, в поисках ответов на несколько вопросов, которые, как ожидается, послужат основой для правительственного подхода к этике ИИ в Австралии.

Признавая, что не существует единого подходящего для всех решения ряда вопросов правовых и этических последствий, связанных с ИИ, CSIRO определила девять инструментов, которые, по ее словам, могут быть использованы для оценки риска и обеспечения соблюдения и надзора.

Это были оценки воздействия, обзоры, оценки рисков, руководящие указания по наилучшей практике, отраслевые стандарты, механизмы сотрудничества, мониторинга и улучшения, механизмы защиты и консультации.

Австралийский национальный университет недавно начал исследовательский проект, направленный на разработку австралийских ценностей в системах искусственного интеллекта. 

Проект гуманизированного машинного интеллекта (HMI) увидит 17 основных исследователей, вовлеченных в создание структуры проектирования для морального машинного интеллекта (MMI), которая может быть широко развернута. 

Руководитель Школы философии АНУ Сет Лазар ранее сказал ZDNet, что необходимость развития морального ИИ вытекает из недавних опасений по поводу существующих систем ИИ.

«То, что вызывает у меня обеспокоенность по поводу ИИ, заключается в том, что мы можем использовать ИИ для социального блага, но за последний год или два стало очевидно, что потенциально ИИ может иметь много непредвиденных последствий. Так что есть огромный спрос и интерес к развитию ИИ с моральными ценностями», — сказал он.

Add a Comment

Ваш e-mail не будет опубликован. Обязательные поля помечены *