«Система глубокого обучения — черный ящик. Результат непредсказуем» |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2016-07-10 12:30 машинное обучение python, нейросети новости, БПЛА, методы распознавания образов Две недавних аварии с участием автопилота Tesla подняли вопрос, как вести расследование ДТП с участием компьютера? Как определить, что именно вышло из строя? Как следует из колонки Уилла Найта, старшего редактора MIT Technology Review, разобраться в ошибках ИИ будет не просто. В мае во Флориде произошла авария со смертельным исходом. Tesla Model S со включенным автопилотом врезалась в поворачивающий грузовик. Другое ДТП случилось в Пенсильвании. Tesla Model X ударилась об ограждение дороги и перевернулась. Водитель заявил, что режим автопилота был в это время включен. Tesla не объясняет, как именно работает автопилот. Но технологии машинного обучения используют автоматические системы распознавания визуальной информации. Они учатся отличать транспорт, дорожную разметку, знаки и другие объекты по видеосъемкам. Машинное обучение позволяет быстрее и проще научить компьютер выполнять определенные задачи, чем прописывать все команды вручную. Обратная сторона этой технологии - становится сложнее понять, где система дала сбой. Решение этой задачи требует дополнительных исследований. Toyota, к примеру, финансирует проект в МТИ, который изучает, как беспилотник мог бы объяснить свои действия постфактум. По словам Карла Ягнемма, главного исследователя в МТИ и основателя nuTonomy, стартапа, работающего над созданием автоматических такси, считает, что систему глубокого обучения сложно расследовать. «Ты разрабатываешь черный ящик, алгоритм, который тренируется на примерах, но его результат - это необъяснимая величина», - говорит он. Доцент Стэнфордского университета Сильвио Саварезе, специалист по машинному зрению, сказал, что одним из его недостатков является неспособность делать выводы из различных форм информации. Водитель, даже не видя полностью препятствие, может предположить его наличие по косвенным признакам. «Мы используем множество контекстуальной информации, - говорит Саварезе. - Современные механизмы обучения не умеют этого». Все разработчики автономных транспортных систем внимательно следят за расследованием аварий Tesla. От их результатов зависит, будут ли эти исследования приостановлены на неопределенный срок, или нет. Источник: hightech.fm Комментарии: |
|