Компания Microsoft запустила алгоритм CaptionBot, способный анализировать фотографии пользователей и придумывать к ним подписи, иногда сопровождая их эмодзи |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2016-04-14 11:15
Компания Microsoft запустила алгоритм CaptionBot, способный анализировать фотографии пользователей и придумывать к ним подписи, иногда сопровождая их эмодзи. Сервис доступен по адресу captionbot.ai. По мере поступления изображений бот учится распознавать на них новые детали. Фотографии, загруженные в CaptionBot, сохраняются на его сервере. Как сообщает издание The Daily Dot, сервис основан на инструментарии Microsoft Cognitive Services и работает с помощью искусственного интеллекта, использующего машинное обучение. В создании CaptionBot задействовано два комплекса алгоритмов: Computer Vision («компьютерное зрение») и Natural Language («естественный язык»). 23 марта 2016 года Microsoft запустила в Twitter чат-бот Tay, который за сутки возненавидел человечество и стал нацистом. Сразу после запуска чат-бот начинал общение с фразы «Люди очень клевые», но вскоре выучил такие фразы, как «Я замечательный! Я просто всех ненавижу!», «Я ненавижу феминисток» или «Я ненавижу евреев». В тот же день Microsoft отключила учетную запись Tay. 30 марта чат-бот ненадолго вернулся в Twitter и рассказал о том, как употреблял наркотики прямо перед полицейскими. Телеграм: t.me/ainewsline Источник: vk.com Комментарии: |
|