Американские военные создают детектор словесной агрессии |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2020-02-05 06:20 Исследовательская лаборатория армии США выделила трехлетний грант в размере 1 500 000 долларов на разработку так называемого детектора микроагрессии похожего на виртуального ассистента Alexa, который будет улавливать «скрытую предвзятость» на рабочих местах по всей Америке. Устройство, похожее на Amazon Alexa, будет пытаться определить, когда начальник дискриминирует или принижает сотрудника. Это устройство пока не существует, но доценты Кристоф Ридл и Брук Фуко Уэллс готовятся приступить к трехлетнему проекту, результатом которого должен стать такой гаджет. Исследователи будут изучать с точки зрения социальных наук, как сотрудники общаются друг с другом, а также с умными устройствами при совместном решении проблем. «Идея [для этого проекта] заключается в том, что у вас будет устройство, например Amazon Alexa, которое будет лежать на столе и наблюдать за членами команды, пока они решают проблему, и поддерживать их различными способами, — говорит Ридл. — Мы считаем, что можем поддержать эту команду, обеспечивая равное участие всех членов». […] «Представьте себе, что, допустим, менеджер после коллективного обсуждения получает отчет, в котором говорится, что человек «А» в буквальном смысле доминировал в разговоре», — говорит Уэллс. По ее словам, интеллектуальное устройство будет предупреждать руководителя о том, что определенные сотрудники игнорируются в коллективе, и напоминать, на кого стоит обратить внимание. Однако исследователи понимают, что им придется столкнуться с определенными проблемами. Во-первых, не трудно догадаться, как осведомленность о наличии такого устройства в комнате повлияет на поведение людей. Еще одна непредвиденная проблема, по словам Уэллс заключается в том, как субъекты будут реагировать на ошибки самого устройства. В самом деле, страшно подумать, как будут чувствовать себя люди, зная, что за ними постоянно следит детектор микроагрессии, анализируя каждое их слово. Телеграм: t.me/ainewsline Источник: разведданные.онлайн Комментарии: |
|