Искусственный интеллект научили понимать еще больше человеческих эмоций — Роботех

Искусственный интеллект научили понимать еще больше человеческих эмоций

Использование технологии распознавания лиц расширяется — и теперь Fujitsu утверждает, что разработала способ научить искусственный интеллект лучше отслеживать эмоции. 

Лаборатории компании разработали технологию на основе искусственного интеллекта, которая может отслеживать тонкие изменения выражения, такие как нервозность или растерянность. Такие компании, как Microsoft , уже используют инструменты эмоций для распознавания выражения лица , но они ограничены восемью «основными» состояниями: гнев, презрение, страх, отвращение, счастье, грусть, удивление или нейтральность. 

Текущая технология работает путем определения различных единиц действия (AU) — то есть определенных движений лицевых мышц, которые мы совершаем и которые могут быть связаны с конкретными эмоциями, сообщает ZDNet

Из-за огромного количества данных, необходимых для обучения ИИ для эффективного выявления эмоций, современные технологии пытаются распознать то, что мы чувствуем. Иногда им это удается, но только не в тех случаях, когда мы сидим перед камерой и смотрим прямо в нее. Если же человек немного отвернется или сядет полубоком, то определение его эмоций сильно усложнится. Множество исследовательских работ, демонстрирующих, что нынешняя технология, используемая для распознавания эмоций, ненадежна, кажется, поддается этой точке зрения.  

Но Fujitsu утверждает, что теперь нашла способ обойти эту проблему. Вместо того чтобы создавать больше изображений для обучения ИИ, они разработали инструмент для извлечения большего количества данных из одного изображения. Благодаря тому, что называется «процессом нормализации», он может преобразовывать снимки, сделанные под определенным углом, в изображения, которые напоминают фронтальный снимок. 

После соответствующего увеличения, уменьшения или поворота вновь созданное фронтальное изображение позволяет ИИ гораздо легче обнаруживать АU — и гораздо более точно. 

«С таким же ограниченным набором данных мы можем лучше обнаруживать больше AU, даже на снимках, сделанных, например, под наклонным углом/ И с большим количеством AU мы можем идентифицировать сложные эмоции, которые являются более тонкими, чем ключевые выражения, которые в настоящее время анализируются», — сказал представитель Fujitsu.

Поэтому Fujitsu теперь может обнаруживать эмоциональные изменения, такие же сложные, как и нервный смех, с показателем точности обнаружения 81%, который был определен с помощью «стандартных методов оценки», согласно данным фирмы.

Это сопоставимо с показателем точности 60% для Microsoft , согласно независимому исследованию, которое также обнаружило, что технологии всемирно известной корпорации не могут обнаружить эмоции почти на любой из фотографий, которые были ей представлены с полным левым или полным правым профилем. 

Однако то, может ли инструмент достичь высокого уровня точности, вероятно, станет предметом споров для психологов, которые утверждают, что АU сами по себе не отражают эмоции. 

Имеющиеся данные показывают, что, например, люди не всегда злятся от злости — на самом деле, иногда злость может заставить нас улыбнуться. Это звучит как очередной вызов технологии распознавания эмоций.

Add a Comment

Ваш e-mail не будет опубликован. Обязательные поля помечены *