Искусственный интеллект слишком строг. YouTube возвращает модераторов

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Искусственный интеллект (ИИ) оказался слишком строгим цензором. Решение вернуть модераторов для оценки «вредоносных» роликов принял видеохостинг YouTube, 20 сентября сообщило издание Financial Times.

После того, как YouTube отключил от проверки содержания роликов 10 тысяч модераторов в момент начала пандемии, их роль стал выполнять искусственный интеллект. Но он оказался гораздо более строгим цензором. С апреля по июнь 2020 года ИИ удалил 11 млн видеороликов, что вдвое превысило число удаленных роликов за предыдущий квартал.

Видеохостинг принял решение вернуть модераторов. Но в большинстве случаев первоначальное решение об удалении «вредоносного» содержания все равно будет принимать искусственный интеллект. Модераторы будут просматривать ролики, которые пометил и запретил ИИ, и, если они не нарушают правила, открывать к ним доступ.

«Одно из решений, принятое нами в начале пандемии, когда возлагали задачу модерирования на машину, которая не может быть такой же точной, как человек, — лучше по ошибке удалить хорошие видеоролики, лишь бы надежно защитить наших пользователей от вредоносного содержания», — заявил директор по продуктом YouTube Нил Мохан.

Он подчеркнул, что скорость работы ИИ существенно выше, чем у модераторов. В период пандемии, по мнению Мохана, на пользователей выплеснулось огромное количество ложной и вредоносной информации. Модераторы не справлялись. А ИИ успевал удалять 50% видеороликов, пока их никто не успел посмотреть. 80% видеороликов было удалено до того, как число просмотров превысило десять.

В результате ошибок было удалено множество роликов, которые не нарушали правила. 160 тысяч из них были восстановлены после подачи апелляций.

По мнению Financial Times, социальные сети и видеохостинги стремятся очень быстро реагировать на нежелательные статьи и видеоролики, поскольку на них оказывается огромное давление. Из-за обостряющихся противоречий в американском обществе, вопросов расовой дискриминации рекламодатели очень чутко реагируют на нежелательные публикации и могут бойкотировать платформу.


Источник: rossaprimavera.ru

Комментарии: