Учёные в США научили искусственный интеллект предугадывать споры в интернете |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2018-05-23 22:10 Но люди всё ещё справляются с этим лучше. Исследователи из Корнуэлльского университета, подразделения Google Jigsaw и фонда Wikimedia создали алгоритм, который сканирует обсуждения и определяет, как они закончатся — спором или дружелюбной беседой. Систему натренировали на «Обсуждениях» к статьям на «Википедии», где редакторы обсуждают правки в материалах и необходимость обновления источников. Алгоритм был заранее запрограммирован искать определённые знаки в разговоре, которые влияют на тон беседы. Например, если обсуждение проходит хорошо, то там встречаются благодарности («Спасибо за вашу помощь»), приветствия («Как проходит твой день?») и слово «пожалуйста». По словам исследователей, всё это создаёт не только дружественную атмосферу, но и определённый эмоциональный «буфер» между участниками. В таком обсуждении любой может признать свою неправоту, не потеряв лица. Знаками того, что обсуждение правок превратится в спор, учёные считают повторяющиеся прямые вопросы («Почему об этом не упоминается? Почему ты не посмотрел на это?») и предложения, которые начинаются с местоимений второго лица — ты или вы («Твои источники не имеют значения»). Особенно недружелюбным знаком является переход на личности в самом начале разговора. В дополнение к этим маркерам, учёные определили общую «токсичность» обсуждений с помощью Google Perspective API — инструмента с искусственным интеллектом, который определяет, насколько дружелюбным, нейтральным или агрессивным является текст. В конце «тренировочного периода» алгоритм мог предсказывать исход диалогов с точностью 65%. Учёные считают, что результатом их работы станут машины, которые смогут вмешиваться в интернет-дискуссии и предотвращать споры.
Однако, как отметили в издании The Verge, у алгоритма есть серьёзные недостатки. Например, точность — результат компьютера всё ещё ниже, чем у людей, которые смогли предугадать исход диалога с точностью 72%. Кроме того, систему научили на нетипичных для интернета обсуждениях, участники которых имеют общую цель — улучшить материал. Есть и этические моменты: алгоритм может повлиять на потенциально конструктивные обсуждения, если примет решение слишком рано. Учёные пока не знают, где проходит необходимая грань, когда машине следует вмешаться. Кроме того, по словам Чжанг, диалоги могут быть совершенно непредсказуемыми: она видела примеры дискуссий, которые по всем признакам были «токсичными», но в конце концов люди исправлялись и переходили на вежливый тон. Источник: tjournal.ru Комментарии: |
|