Обмани нейросеть |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2016-07-19 12:22 машинное обучение новости, искусственный интеллект, распознавание образов Группа ученых из Лондонского городского университета разработала алгоритм для выявления лжи по структуре и особенностям языка. Программа поможет не только раскусить мелкий обман о болезни или задержке дедлайна, но и укажет на случаи мошенничества и предательства. Об этом пишет International Business Times. Ученые исследовали архив электронных писем и на его основе выявили несколько признаков лжи, которая отражается в языке на микроуровне (выбор слов, их использование), на макроуровне (структура письма) и на метауровне (взаимосвязь между частями текста). Для разработки алгоритма использовались большие данные и система распознавания естественной речи. Создан детектор лжи на основе машинного обучения Оказалось, что неискренность в письмах выдает отсутствие личных местоимений и использование излишних прилагательных. Также авторы таких сообщений часто излишне структурируют свои аргументы, стараются минимально осуждать самих себя и делают акцент на похвале. При этом люди часто подстраиваются под собеседника и меняют тон сообщения в соответствии с его тоном. Ученые отметили, что алгоритм предназначен для того, чтобы обезопасить организации от мошенничества и финансовых потерь. Разработка может использоваться не только внутри компании, но для анализа переписки с клиентами. В другой раз, исследователи из Мичиганского университета исследовали возможности анализа видео. Для проверки точности системы ученые использовали 120 видео с реальных судебных заседаний. Предметом анализа стали речь и жесты выступающих. Искусственный интеллект в 75% случаев определил, когда человек лжет, а когда говорит правду. Люди смогли выявить ложь лишь в 50% случаев. Программное обеспечение учитывало такие факторы, как направление взгляда говорящего, использование слов-паразитов и повторяющиеся жесты - движения головы, рук, бровей и рта. Профессор информатики и разработок Рада Михалкея отметила, что люди воспринимают коммуникационные ситуации цельно и не могут подсчитывать, сколько раз человек сказал «я» или посмотрел вверх. Из-за этого мы часто ошибаемся в оценке правды и лжи. По итогам исследования ученые сформулировали главные «симптомы» лжи. К ним относятся движения рук, чрезмерная мимика, использование слов-паразитов («эээ», «мм» и других), попытка придать речи большую убедительность, частое кивание головой и намеренное стремление смотреть в глаза тому, кто задает вопросы В будущем устройства смогут давать более точную оценку, так как станут замерять сердечный ритм, дыхание и температуру тела говорящего. Для этого не понадобятся даже датчики: программа сможет делать это на расстоянии, используя технологию тепловидения. Система может применяться агентами служб безопасности, судебными присяжными и психиатрами. Также в будущем машинное обучение научится анализировать и классифицировать отдельные жесты. Чем-то подобным занимаются финские исследователи, которые работают над ПО для распознавания микровыражений эмоций на лице человека. Источник: rusneuro.net Комментарии: |
|