Технология Microsoft и MIT позволит избежать ошибок ИИ при управлении движением самоуправляемого автомобиля |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2019-02-05 23:08 Исследователи Microsoft и Массачусетский технологический институт (MIT) разработали систему, которая позволит выявлять ошибки в знаниях искусственного интеллекта, используемого для автономного управления движением автомобилей и или действиями роботов. Эти пробелы, называемые «слепыми пятнами», возникают, когда имеются значительные различия между примерами обучения ИИ и тем, что человек будет в реальности делать в определённой ситуации. Например, когда самоуправляемый автомобиль не обнаруживает разницы между большим белым автомобилем и машиной скорой помощи с сиреной, и, следовательно, не ведёт себя должным образом. MIT Technology Review Новая модель, разработанная MIT и Microsoft, оснащена системой искусственного интеллекта, сравнивающей реальные действия человека с тем, что может быть сделано этой же ситуации. В качестве альтернативы в режиме реального времени человек, наблюдающий за ИИ, может исправить любые ошибки по мере их возникновения или непосредственно перед этим. В результате система искусственного интеллекта изменит своё поведение в зависимости от того, насколько близки её действия к действиям человека, и определит ситуации, для которых требуется большего понимания. «Модель помогает автономным системам лучше узнать, что именно они не знают, — рассказал автор исследования Рамья Рамакришнан (Ramya Ramakrishnan). — Неоднократно при развёртывании этих систем полученные в результате моделирования навыки не соответствовали реальной обстановке [и] они могли совершать ошибки, такие как попадание в аварии. Идея состоит в том, чтобы использовать людей для безопасного преодоления этого разрыва между моделированием и реальным миром, что позволило бы нам уменьшить число этих ошибок». Новая система пока не готова к публичному запуску — её тестировали лишь в видеоиграх. Следующий этап — её использование с реальными самоуправляемыми автомобилями и их тестируемыми системами. Телеграм: t.me/ainewsline Источник: m.vk.com Комментарии: |
|