Американские военные создают детектор словесной агрессии |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2020-02-05 06:20 Исследовательская лаборатория армии США выделила трехлетний грант в размере 1 500 000 долларов на разработку так называемого детектора микроагрессии похожего на виртуального ассистента Alexa, который будет улавливать «скрытую предвзятость» на рабочих местах по всей Америке. Устройство, похожее на Amazon Alexa, будет пытаться определить, когда начальник дискриминирует или принижает сотрудника. Это устройство пока не существует, но доценты Кристоф Ридл и Брук Фуко Уэллс готовятся приступить к трехлетнему проекту, результатом которого должен стать такой гаджет. Исследователи будут изучать с точки зрения социальных наук, как сотрудники общаются друг с другом, а также с умными устройствами при совместном решении проблем. «Идея [для этого проекта] заключается в том, что у вас будет устройство, например Amazon Alexa, которое будет лежать на столе и наблюдать за членами команды, пока они решают проблему, и поддерживать их различными способами, — говорит Ридл. — Мы считаем, что можем поддержать эту команду, обеспечивая равное участие всех членов». […] «Представьте себе, что, допустим, менеджер после коллективного обсуждения получает отчет, в котором говорится, что человек «А» в буквальном смысле доминировал в разговоре», — говорит Уэллс. По ее словам, интеллектуальное устройство будет предупреждать руководителя о том, что определенные сотрудники игнорируются в коллективе, и напоминать, на кого стоит обратить внимание. Однако исследователи понимают, что им придется столкнуться с определенными проблемами. Во-первых, не трудно догадаться, как осведомленность о наличии такого устройства в комнате повлияет на поведение людей. Еще одна непредвиденная проблема, по словам Уэллс заключается в том, как субъекты будут реагировать на ошибки самого устройства. В самом деле, страшно подумать, как будут чувствовать себя люди, зная, что за ними постоянно следит детектор микроагрессии, анализируя каждое их слово. Источник: разведданные.онлайн Комментарии: |
|