Учёные в США научили искусственный интеллект предугадывать споры в интернете

МЕНЮ


Искусственный интеллект. Новости
Поиск
Регистрация на сайте

ТЕМЫ


Новости ИИРазработка ИИРабота разума и сознаниеВнедрение ИИРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информации

Авторизация



RSS


RSS новости

Новостная лента форума ailab.ru

Но люди всё ещё справляются с этим лучше.

Исследователи из Корнуэлльского университета, подразделения Google Jigsaw и фонда Wikimedia создали алгоритм, который сканирует обсуждения и определяет, как они закончатся — спором или дружелюбной беседой. Систему натренировали на «Обсуждениях» к статьям на «Википедии», где редакторы обсуждают правки в материалах и необходимость обновления источников.

Алгоритм был заранее запрограммирован искать определённые знаки в разговоре, которые влияют на тон беседы. Например, если обсуждение проходит хорошо, то там встречаются благодарности («Спасибо за вашу помощь»), приветствия («Как проходит твой день?») и слово «пожалуйста».

По словам исследователей, всё это создаёт не только дружественную атмосферу, но и определённый эмоциональный «буфер» между участниками. В таком обсуждении любой может признать свою неправоту, не потеряв лица.

Знаками того, что обсуждение правок превратится в спор, учёные считают повторяющиеся прямые вопросы («Почему об этом не упоминается? Почему ты не посмотрел на это?») и предложения, которые начинаются с местоимений второго лица — ты или вы («Твои источники не имеют значения»). Особенно недружелюбным знаком является переход на личности в самом начале разговора.

В дополнение к этим маркерам, учёные определили общую «токсичность» обсуждений с помощью Google Perspective API — инструмента с искусственным интеллектом, который определяет, насколько дружелюбным, нейтральным или агрессивным является текст.

В конце «тренировочного периода» алгоритм мог предсказывать исход диалогов с точностью 65%. Учёные считают, что результатом их работы станут машины, которые смогут вмешиваться в интернет-дискуссии и предотвращать споры.

Люди могут заранее заподозрить, что разговоры закончатся плохо и это исследование показывает, что мы можем научить тому же компьютеры.

Джастин Чжанг

один из студентов, работавших над проектом

Однако, как отметили в издании The Verge, у алгоритма есть серьёзные недостатки. Например, точность — результат компьютера всё ещё ниже, чем у людей, которые смогли предугадать исход диалога с точностью 72%. Кроме того, систему научили на нетипичных для интернета обсуждениях, участники которых имеют общую цель — улучшить материал.

Есть и этические моменты: алгоритм может повлиять на потенциально конструктивные обсуждения, если примет решение слишком рано. Учёные пока не знают, где проходит необходимая грань, когда машине следует вмешаться.

Кроме того, по словам Чжанг, диалоги могут быть совершенно непредсказуемыми: она видела примеры дискуссий, которые по всем признакам были «токсичными», но в конце концов люди исправлялись и переходили на вежливый тон.


Источник: tjournal.ru



Поддержи проект ai-news рублем. Машины верят в тебя! >>



Комментарии: