Ученые из MIT научили нейросеть подбирать звук к видео |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2016-06-27 13:47 Для этого ученые в течение нескольких месяцев били барабанной палочкой по различным предметам и поверхностям, записав тысячи видео с около 46 000 разных звуков. Затем эти видео прогнали через нейросеть - алгоритм проанализировал сочетание звуков и видео и попытался выявить закономерности. Наконец, ученые протестировали нейросеть на видео без звука - основываясь на визуальной информации, алгоритм подобрал наиболее подходящие звуки из доступной ему базы. Получившиеся видео выглядели достаточно правдоподобно для смотрящих их людей - то есть, нейросеть в каком-то смысле прошла тест Тьюринга для видео. Зачем это нужно? Во-первых, подобные алгоритмы можно будет использовать для создания звуковых эффектов в кино. Во-вторых, это еще один шаг вперед для искуственного интеллекта: если роботы знают, какой звук ассоциируется с данной поверхностью, они узнают что-то и о свойствах этой поверхности: например, твердая она или мягкая, и как с ней лучше взаимодействовать. В последнее время появляется множество интересных исследований на стыке нейронаук и deep learning. Мы не знаем, что именно делает нейросеть, и похоже ли это на то, что делает мозг, но часто результаты сопоставимы - современные нейросети распознают объекты почти так же хорошо, как люди, а теперь еще и озвучивают видео. Ссылка на новость на сайте MIT: http://news.mit.edu/2016/artificial-intelligence-produces-realistic-sounds-0613 Источник: vk.com Комментарии: |
|