Yahoo будет бороться с оскорблениями и угрозами в сети |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2016-07-31 08:00 В начале этого года компания Twitter сообщила об открытии нового отдела, главной задачей которого стала борьба с излишне агрессивными и неучтивыми пользователями. Однако компания Yahoo решила пойти несколько дальше. На днях стало известно, что специалистам из Yahoo Labs удалось разработать специальный алгоритм. По предварительным данным, он является одним из лучших автоматических фильтров, призванных бороться с оскорблениями и угрозами в Интернете. На данный момент большинство подобных автоматизированных фильтров обнаруживает неподобающие выражения, оценивая тексты и выбирая из них ключевые слова и выражения. Однако такой подход показал себя как не слишком эффективный. Пользователи быстро нашли способы обхода подобных автоматических фильтров. При создании своего алгоритма специалисты из Yahoo Labs использовали машинное обучение. Благодаря такому подходу, новая разработка позволяет вычленять даже замаскированные оскорбления. Согласно имеющимся данным, алгоритм от Yahoo Labs позволяет отсеять до 90% записей, содержащих оскорбления или угрозы. Однако специалисты британского Центра анализа социальных медиа считают, что подобная система пока не может быть полностью эффективна. В первую очередь это связано с тем, что многие люди по-разному воспринимают одни и те же утверждения. Телеграм: t.me/ainewsline Источник: 4pda.ru Комментарии: |
|